Está en la página 1de 133

ATENCIÓN Y PERCEPCIÓN

2º DE PSICOLOGÍA
PSICOLOGÍA DE LA ATENCIÓN
2017/2018
2
Índice
TEMA 1. NATURALEZA DE LA ATENCIÓN: CONCEPTO, TEORÍAS Y METODOLOGÍA ............................................ 5
1. CONCEPTO ..................................................................................................................................................5
2. PLANTEAMIENTO HISTÓRICO ..........................................................................................................................6
3. PROCEDIMIENTOS PARA ESTUDIAR LOS ASPECTOS DE ATENCIÓN .................................................................8
4. APARATOS PARA ESTUDIAR LA ATENCIÓN ....................................................................................................11

TEMA 2. ATENCIÓN SELECTIVA ....................................................................................................................... 13


1. FACTORES DETERMINANTES .....................................................................................................................13
2. FLUCTUACIONES DE LA ATENCIÓN ...........................................................................................................14
3. ESTÍMULOS DISTRACTORES.......................................................................................................................15
4. MODELOS TEÓRICOS .................................................................................................................................15
4.1 MODELO DE FILTRO RÍGIDO DE BROADBENT .......................................................................................................... 15
4.2 MODELO DE FILTRO ATENUADO ............................................................................................................................. 16
4.3 MODELO DE FILTRO ATENCIONAL PRECATEGORIAL Y POSTCATEGORIAL ............................................................... 16
4.5 MODELO DE FILTRO ATENCIONAL FLEXIBLE ............................................................................................................ 16
4.6 MODELO CONEXIONISTA DE SLAM ......................................................................................................................... 18
5. ATENCIÓN AL ESPACIO VISUAL ......................................................................................................................19
6. MEDIDAS DE ATENCIÓN SELECTIVA ..............................................................................................................20

TEMA 3. ATENCIÓN DIVIDIDA ......................................................................................................................... 23


1. DIVISIÓN DE LA ATENCIÓN Y LA MULTITAREA ..........................................................................................23
1.1 PARADIGMA DE LA DIVISIÓN ATENCIONAL ............................................................................................23
2. MODELO DE RECURSOS ATENCIONALES MÚLTIPLES. WICKENS, 1984 .....................................................23
3. PROBLEMA DE LA LIMITACIÓN DE RECURSOS ..........................................................................................25
4. MODELO ATENCIONAL ESTRUCTURAL DE WELDFORD. ATENCIÓN COMO FILTRO ..................................26
4.1 PARADIGMA DE LA DOBLE TAREA...........................................................................................................26
4.2 TEORÍA DE DETECCION DE SEÑALES (SDT) ..............................................................................................27
4.3 FACTORES QUE DETERMINAN LA EJECUCIÓN DE UNA DOBLE TAREA ....................................................29
5. EL PAPEL DE LA PRÁCTICA .........................................................................................................................30
6. LA ATENCIÓN EN EL APRENDIZAJE DE HABILIDADES ................................................................................30
6.1 CRITERIOS DE AUTOMATICIDAD-CONTROL ............................................................................................31

TEMA 4. LA ATENCIÓN Y EL CONTROL DE LA EJECUCIÓN ................................................................................ 35


1. MODELOS ATENCIONALES ........................................................................................................................35
1.1 NORMAN Y SHALLICE 1980,1986 ............................................................................................................................. 35
1.2 REASON 1979 ............................................................................................................................................................ 36
1.3 BAARS 1983 .............................................................................................................................................................. 36
1.4 LOGAN 1980.............................................................................................................................................................. 36

3
2. LAPSOS DE ACCIÓN .................................................................................................................................. 37
3. MEDIDAS DEL CONTROL DE LA ATENCIÓN Y EJECUCIÓN ......................................................................... 38

TEMA 5. ATENCIÓN SOSTENIDA ..................................................................................................................... 39


1. CONCEPTO ............................................................................................................................................... 39
2. FUNCIÓN DE DECREMENTO ..................................................................................................................... 39
3. ATENCIÓN Y AROUSAL ............................................................................................................................. 39
3.1 LEY DE YERKES DODSON ........................................................................................................................ 40
4. FACTORES DETERMINANTES Y PSICOFÍSICA DE LA ATENCIÓN SOSTENIDA (11) ...................................... 40
5. RITMOS DE EFICIENCIA ATENCIONAL ....................................................................................................... 41
5.1 RELACIONADO CON RITMOS CIRCADIANOS .......................................................................................... 41
6. TEORÍAS DE ATENCIÓN SOSTENIDA.............................................................................................................. 43
6.1. TEORÍA DE LA EXPECTATIVA BAKER, 1963 ............................................................................................ 43
6.2. HIPÓTESIS DE LA TASA DE OBSERVACIÓN PROVOCADA JERISON, 1970 ............................................... 43
6.3. TEORÍA DE LA DETECCIÓN DE SEÑALES Green y Swets, 1966 ............................................................... 44
6.4. TEORÍA DE LA HABITUACIÓN MACKWORTH, 1969 ............................................................................... 45
6.5 CONSIDERACIONES FINALES ................................................................................................................... 45

TEMA 6. META-ATENCIÓN, DESARROLLO DE LAS CAPACIDADES ATENCIONALES Y DISFUNCIONES DELA


ATENCIÓN ...................................................................................................................................................... 47
1. FASES DE LA ATENCIÓN Y SUS DETERMINANTES ......................................................................................... 47
2. SELECTIVIDAD ATENCIONAL: MECANISMOS Y TAREAS ................................................................................ 48
3. DIVISIÓN DE LA ATENCIÓN Y CAMBIO EVOLUTIVO ...................................................................................... 49
4. ATENCIÓN SOSTENIDA Y CAMBIO EVOLUTIVO ............................................................................................. 49
5. EXPLICACIONES DEL CAMBIO EVOLUTIVO DE LA ATENCIÓN ........................................................................ 50
6. META-ATENCIÓN .......................................................................................................................................... 50
7. ALTERACIONES DE LA ATENCIÓN.................................................................................................................. 51
TRASTORNOS DE LA ATENCIÓN VISUAL. NEUROPSICOLOGÍA COGNITIVA ................................................... 52

TEMA 7. ÁMBITOS DE APLICACIÓN DE LA PSICOLOGÍA DE LA ATENCIÓN ........................................................ 53


1. CONTEXTOS RELEVANTES DE APLICACIÓN ................................................................................................... 53
2. TRASTORNO POR DÉFICIT DE ATENCIÓN (TDA) ............................................................................................ 53
INTERVENCIÓN COGNITIVO-COMPORTAMENTAL........................................................................................ 55
INTERVENCIÓN CON NIÑOS CON TDA .......................................................................................................... 55
INTERVENCIÓN EN EL AULA.......................................................................................................................... 56

4
TEMA 1. NATURALEZA DE LA ATENCIÓN: CONCEPTO, TEORÍAS Y
METODOLOGÍA
1. CONCEPTO
La atención es un proceso cognitivo que el cerebro implementa a partir de diferentes mecanismos que
pueden ser:
Excitatorios: filtra los aspectos positivos. Se centra en X estímulos.
Inhibitorios: filtra los aspectos negativos. Elimina los estímulos distractorios.
La atención por tanto puede ser causa o efecto, dependiendo de la situación. Lo que complica su
compresión es que hay mucha terminología asociada a ello.
En el camino a la definición actual de atención, ha habido muchas otras (5), el concepto se ha ido
formando de forma diacrónica:
❖ Alerta: primer término utilizado. Es un estado especial del organismo para procesar
rápidamente los estímulos y dar una respuesta adaptada al entorno. Se basa en el arousal
fisiológico. Todos los SSVV lo tienen. Ej.: Palmadas en medio de la clase.
▪ ALERTA Y AROUSAL: Existen circuitos cerebrales tanto básicos como complejos. Los
básicos se encargan de la alerta y dan una respuesta adaptativa correcta. Destaca la
importancia de la formación reticular, encargada de transmitir el impulso emocional
al resto del córtex. Si está parte no funciona, se traduce en un coma. Escala de Coma
de Glasgow. Todo esto se relaciona con la respuesta de orientación estudiada por los
conductistas, es decir, con la conducta del sujeto al responder a los estímulos.
▪ ESTADOS DE ALERTA:
 Fásica: cambios intensos y poco duraderos producidos por estímulos
concretos. Pueden ser incrementos. (Ej.: Aparición de peligro) o decrementos (Ej.:
Lagunas atencionales. La concentración sube más con el frío que con el calor.

 Tónica: cambios en el estado de alerta graduales y duraderos. El ejemplo más


claro son los ritmos circadianos y la vejez. Ej.: Si tienes clase a las 9.15 y te levantas
a las 8.00 tu nivel de arousal aumenta paulatinamente y a esa hora estás activado al
máximo, aunque a las 14.00 estés reventado. El nivel de alerta de los jóvenes es
mayor que el de los ancianos.

❖ Atención Selectiva: se empieza a estudiar la atención como capacidad para seleccionar la


información que llega selectivamente. Como no se puede procesar toda la información que
llega, se procesa en función de los intereses de cada persona. De esto se deduce que las
situaciones son filtros de atención. Esto se empezó a estudiar a principios de los 50 y es lo más
estudiado desde entonces. Ej.: Examen, percibir y comparar uno con otro, hacer una trasposición
espacial del objeto… Cada uno decide a qué proceso prestar atención y como procesarlo, es
decir, interviene la atención selectiva.
❖ Atención Dividida. Limitación de Capacidad y Distribución de Recursos: la atención es un
mecanismo cognitivo de control de ejecución. Esta característica se aplica para seleccionar
información cuando hay más de la que se puede procesar, cuando las demandas exceden
nuestra capacidad. Está implicada en la supervisión de las actividades que realiza el sujeto. Ej.:
mover el volante, escuchar música… mientras hablas.

5
❖ Automatismo-Control: de la anterior acepción se pasó a focalizar el estudio del automatismo
vs. control. Se considera la atención como un mecanismo de control de la acción. Ej.: se puede
andar de forma automática, pero si se encuentra un obstáculo y no se atiende a él, se podría tropezar y
caer. Norman y Shallice denominan SAS (Sistema Atencional Supervisor) al mecanismo que
permite controlar la atención para dirigir nuestros recursos ante situaciones nuevas o
conflictivas para seleccionar los esquemas necesarios. El SAS se caracteriza por ser un sistema de
capacidad limitada que nos permite activar o inhibir las estructuras y esquemas mentales que procesan
la información y actuar sobre los restantes procesos psicológicos.

❖ Atención Sostenida: estudian el mantenimiento de la atención en tareas de vigilancia.


Una definición inclusiva de todas las acepciones anteriores definiría la atención como un mecanismo
o conjunto de mecanismos centrales de capacidad limitada que controla(n) y dirige(n) la actividad en
curso de acuerdo a uno o varios objetivos o metas (generalmente uno, tener varios es más
complicado). Esto ocurre porque las acciones suelen coincidir con la intención. Esta definición permite
englobar las acepciones de selectividad, distribución de recursos y control atencional.

El mecanismo IOR (inhibición de retorno) participa, por ejemplo, cuando se busca algo en un sitio. Si
no está se busca en otro y así. El sujeto se va centrando en las zonas nuevas donde no ha mirado más
que en las que sí.
Es un conjunto de mecanismos ya que hay mecanismos que nos pueden ayudar o apoyar en la
atención como los mecanismos de activación, pero también a la vez puede haber inhibitorios, como
la inhibición de retorno (IOR) o inhibición de automatismos o control de ejecución. Es decir, en un
lugar donde ya se ha atendido, si no aparece una estimulación critica en un periodo de tiempo X
(normalmente 300ms), hay menos probabilidades de atender allí que a otro sitio donde no se ha
atendido. Y la inhibición consiste por ejemplo en inhibir la palabra y decir solo el color de la tinta de
esa palabra ROJO).

a. Está relacionado con la respuesta de orientación. Esto fue estudiado por fisiólogos.
b. Cuando se comienza a estudiar como un proceso, se estudia por qué se relaciona, se procesa aquello a lo que
atiende entonces se pasa a una concepción selectiva. Te das cuenta cuando atiendes a la diferencia. No
podemos percibir en profundidad, ni cognitivamente todo lo que se percibe sensorialmente. Selección en el
proceso mental a llevar a cabo en la percepción y en la respuesta. Ej.: cuando estoy en la tarima y estoy
mirando al frente, cuando quiero bajar atiendo al escalan. A una respuesta motriz (en los años 60 y 70’s)
c. Se dan cuenta que esa selectividad y atención se tienen que limitar. Puedo atender a otros procesos, pero no
ilimitadamente.
La atención es un proceso de energía que requiere recursos limitados y una distribución.
d. Empiezan a estudiar el automatismo.
e. La atención no solo hay que tenerla durante un tiempo concreto. En los años 50 se comenzó a estudiar la
atención sostenida.
f. Todo esto se ha llevado a cabo como un mecanismo de control.

6
2. PLANTEAMIENTO HISTÓRICO
Wundt: Es el primero que trabaja la psicología de forma científica. No menciona la palabra atención
en sus trabajos; sí apercepción, considerando la atención como apercepción. “La atención es una
actividad mental que regula el grado de claridad que las imágenes, los pensamientos y los
sentimientos adquieren en el campo de la conciencia”. (Si apercibo algo, tengo claridad).

Titchener: Divulga la psicología en EE.UU. Recoge el concepto de Wundt, pero lo considera un atributo
en lugar de hablar de una actividad o proceso: Attensity = Claridad. Un objeto atendido llega a la
conciencia mucho antes que otro no atendido: Ley de la prioridad de entrada.

James: hizo las mayores aportaciones. Anticipó conceptos de la atención, pero le faltó evidencia
empírica. “La experiencia es aquello a lo que se decide atender”. Si el sujeto no es consciente de algo
no puede atenderlo. La atención y la conciencia están relacionadas. “Es la toma de posesión por parte
de la mente de uno entre los muchos objetos o series de pensamiento simultáneamente posibles”.
Cuando se presta atención a algo es porque se ha elegido de entre todo lo que se podría atender:
conceptualizó la atención como el resultado de una pre-percepción correcta que tiene lugar a nivel de
los centros ideacionales, por tanto, ocurre relativamente tarde y como resultado de esta pre-
percepción. Se centra en la focalización, concentración y conciencia. James dirigió la atención a
estímulos internos y externos. Además, llevó acabo una distinción según:

• Si la atención se dirige hacia el objeto puede ser sensorial o intelectual (1).

• Según el interés que causa puede ser inmediato o derivado (2).

• Según el modo en que es controlada puede ser activa o pasiva (3).

La atención ordena y dirige la actividad mental a través de la acomodación de órganos sensoriales (girar
la cabeza hacía una zona concreta) y de la preparación anticipatoria de los centros ideacionales (procesos
mentales que tienen que ver con priming; prepararse para la realización de una tarea...).

Helmholtz fue un fisiólogo que trabajó durante la etapa del siglo IX-XX. Se dedicó a estudiar de manera
activa diferentes aspectos de percepción y se dio cuenta de que existe la posibilidad de desplazar la
atención de una zona a otra del campo visual sin tener que mover los ojos (atención encubierta).
Propone una distinción entre la atención abierta (prestar atención a un solo elemento visual. Si
cambia el estímulo de lugar, en el campo visual, los ojos se mueven en función de la nueva localización)
y encubierta (prestar atención a un campo visual sin mover los ojos). También defendió que es una
fuerza interna capaz de autodirigirse: el control y dirección de la atención exige esfuerzo voluntario y
consciente. Además, el grado de novedad del estímulo es muy importante a la hora de captar la
atención.

Gestalt: dejaron de considerar la atención como un factor principal de la investigación perceptiva.


Dieron mucha importancia a los estímulos sensoriales: el estímulo en sí mismo capta la atención y se
basa en un procesamiento de abajo-arriba (botton up o saliencia). Cuando hay conjunción entre las
característicasdel estímulo se presta atención voluntaria. El número de elementos del estímulo afecta
a la atención: la atención resulta de las propiedades estructurales.

7
Conductismo: corriente psicológica que se dio a partir de los años 40-50. El conductismo no estudia
la atención, la memoria o el razonamiento, sino que se centra en las respuestas observables
(aprendizaje y motivación) es decir, se basaron en conductas externas. Para ello, tuvieron en cuenta
aspectos atencionales como, por ejemplo, la activación del organismo (arousal, estado de la alerta) y
el reflejo de orientación. Otra aportación de los conductistas es que pusieron en marcha la idea de
condicionamiento operante, por lo que la captación del estímulo discriminativo exige atención a la
dimensión relevante (para saber si la respuesta va a ser reforzada o no tiene que atender a un estímulo.
Si el sujeto da una respuesta ante un estímulo que no es la que se deseaba no se produce el reforzamiento, es
decir, si la luz roja sale y la paloma picotea obtiene comida, pero si no hay luz o la luz es azul y picotea no va a
obtener el reforzamiento. El sujeto ha de aprender a discriminar entre estímulos.

Luria (1975), neurólogo, en la década de los 60 trabajó los procesos cognitivos con todas las redes
neurales. Fue el primero que habló de funciones mentales y redes neuronales. Luria define la atención
como un proceso selectivo de información necesaria, la consolidación de los programas de acción
elegibles y el mantenimiento de un control permanente sobre los mismos.
Piaget: no trabajó aspectos de atención, sino que se dedicó a estudiar el desarrollo cognitivo
(capacidad máxima cognitiva). El modelo atencional corrobora la teoría de Piaget porque hay
interacción entre procesos superiores e inferiores y porque el desarrollo de la “conservación” es el
desarrollo de la atención selectiva a esas dimensiones.

Psicología Soviética: estaba muy relacionada con la fisiología y los aspectos del aprendizaje. Estudió
el reflejo y la respuesta de orientación. Fueron los primeros en estudiar la activación (arousal) del SRA
y SRD (sistema reticular ascendente y descendente). La atención voluntaria es regulable mediante
instrucciones verbales: se puede usar el lenguaje para controlar la atención (Meta-Atención).
Meichenbaum, en 1979, fue el primer autor (y sus colaboradores) los primeros que se dieron cuenta
de que se podía regular la atención, voluntariamente, mediante el lenguaje (autoinstrucciones
verbales; metaatención). Interiorizar el lenguaje implica la atención controlada del sujeto.
Experimentó con niños con déficit atencional.

Procesamiento de la Información: del 50 en adelante, psicología cognitiva: buscan diferentes


modelos que puedan combinarse en uno que refleje los diagramas de flujo para mostrar los procesos
de la información. En 1950 surge un paradigma de estudio de la psicología que le da mucha
importancia al procesamiento mental: se plantear el papel que juegan los diferentes procesos
mentales en la toma de decisiones y planificación de tareas. El cerebro del sujeto funciona como un
ordenador: para reconocer a una persona y decidir si la voy a saludar tenemos 2 segundos. Existe un
almacenamiento sensorial temporal, mientras tengo que manejar esa información también tengo que
reconocer a esa persona y para eso hay que acudir a la memoria a largo plazo.
Diagrama de flujo del proceso de atención:

Es→Almacén sensorial→ PERCEPCIÓN → Decisión Respuesta →Ejecución de Respuesta

Los RECURSOS ATENCIONALES influyen en la Percepción, en la Decisión de la Respuesta y en la Memoria de


trabajo (que se utiliza al decidir la respuesta)
Todo este proceso conlleva una retroalimentación.

Diapos: la imagen es un diagrama de flujo de Cristopher Wickens.

8
Método Científico: ocurre una contrastación empírica de las hipótesis planteadas, llevada a cabo
en Psicología desde la fundación de los primeros laboratorios en Leipzig. Existen diferentes técnicas
metodológicas: observacionales, correlacionadas, experimentales. Su elección depende de la fase de
estudio y del tipo de problema (posibilidad de manipulación de variables, control, posibilidad de
aleatorización de sujetos experimentales…). Además, se puede dar un nivel diferente de inferencia.
Los primeros en utilizar el método fueron los filósofos y fisiólogos del siglo XIX; sin embargo, se dieron
cuenta que no era suficiente utilizar el principio de autoridad y el pensamiento lógico para decidir si
una hipótesis era verdadera o falsa y comenzaron a aplicar el método científico. Si se cumplen las
condiciones necesarias y es ético realizar un experimento, siempre se prefiere el método
experimental. Al realizarlo se puede decir que el efecto atencional ocurre debido a la modificación en
la variable estudiada (asociación); sin embargo, no se puede hablar de causa (fumar y el cáncer de
pulmón están asociados, pero pueden darse por separado).

3. PROCEDIMIENTOS PARA ESTUDIAR LOS ASPECTOS DE ATENCIÓN


Escucha Dicótica: es el primer procedimiento utilizado. Consistía en presentar un mensaje diferente
a cada oído de forma que el sujeto podía ser preguntado por uno de los dos mensajes según dijese el
instructor (seguimiento sombreado, atención selectiva). Si por el contrario, sucede amplitud dividida,
sin instrucciones previas se pide ejecución, se le pregunta por ambos mensajes, ocurre la atención
dividida. En este último caso, los sujetos hablaban primero uno y luego otro.

Visión Dicótica: Neisser. Se le daban dos mensajes visuales y diferentes a los sujetos. Igual que el
anterior, pero con la vista. Ej.: papel de la atención en los lapsus o errores diarios. Les dijo a sus alumnos que
durante 15 días se autoobservaran anotando los errores que cometían, los antecedentes y las consecuencias.
Con eso, Posner y otro experimentador, para llegar a un acuerdo entre los jueces, hicieron una taxonomía de
errores sobre las posibles causas. ¿Tirar la cucharilla a la basura es el mismo tipo de error que tirar azúcar en la
carne? Parece que no. En la primera hay una distracción perceptiva-discriminativa.

Tarea de Flancos de Erikson: procedimiento de atención selectiva. Se pone un estímulo central


(pantallas con cruces). Es un paradigma que utiliza parámetros como: distancia, relación de
compatibilidad de los distractores… entre los cuales existe una interferencia dependiente. Aunque
estos son los principales, se puede modificar. Cuanto más cercano esté el distractor, más produce
distracción. Con un grado de ángulo visual, siempre va a haber distracción, por mínimo que sea.
Se emplea para medir atención selectiva y filtrado de distractores.

No es igual que el de prácticas. Solo tienen respuesta X y O.

Priming: significa preparación. Este paradigma fue utilizado por primera vez en 1980, por Posner.
Este autor hizo una preparación espacial para el sujeto: organizó el espacio con estímulos
atencionales. Los primeros estudios se hicieron respecto a la memoria. Experimento: priming espacial.
En una pantalla se les presentaba, en una fila de 4x4, 16 letras. Se le preguntaba al sujeto por lo que había visto
y se dieron cuenta de que el sujeto era capaz de captar ciertas letras. A alguien se le ocurrió poner una rejilla de
4x4 ponerle un sonido. Si el sonido era grave, indicaba que tenía que decir una fila; y si era agudo, tenía que
decir otra fila, etc. Era simplemente un indicio para avisar en qué fila tenían que centrar la atención de manera
parcial. Posner empezó utilizando flechas.
9
Si se le pone a un estímulo neutro un indicio válido para indicarle al sujeto que debe girar a la derecha
o a la izquierda, el tiempo de reacción es menor que si es neutro, lo que constituye un beneficio. Si el
indicio es inválido (se le señala a la izquierda y aparece el estímulo a la derecha), el sujeto debe
reorientar la atención. El tiempo de reacción es mayor que el del neutro. Esa diferencia es el coste de
reorientación de la atención (paradigma se le llamó costes-beneficios). Con los inválidos se estudia el
desenganche de la atención. Con un paradigma tan sencillo como este se ha obtenido muchísima
información (PRÁCTICA 1).

En los 90 se estudiaron las redes cerebrales de la atención. Este paradigma se ha utilizado para crear
un test que estudie las 3 redes de la atención: alerta, orientación de la atención y la alerta ejecutiva.
Este test se llama ANT (Atention Network Test) y es de Posner y Fan. Es muy sencillo y está basado en
una tarea de priming. Si se expone al sujeto a dos sonidos o dos flechas o al parpadeo de una cruz, pasa a ser
un ensayo de alerta. Sin embargo, si se le expone a dos flechas no sabe dónde va a aparecer el estímulo. Si se le
avisa de que va a aparecer también se puede medir el nivel de alerta . Con el paradigma original (flecha para
un lado y estimulo en un lado u otro) se mide la orientación. Poniendo flancos se podría convertir en
un paradigma stroop y se podría medir la atención como un mecanismo de control. Con la modificación
de Fan se miden las tres dimensiones:

 Alerta: analiza qué capta el sujeto cuando aparece un estímulo. (Dos flechas).

 Orientación: el sujeto atiende al lugar donde aparece el estímulo (ensayo válido del
paradigma original).

 Red Ejecutiva: el estímulo es una flecha en el centro de la pantalla y se flanquea. Si las


flechas son en la misma dirección es un ensayo congruente y si son en dirección contraria
es un ensayo stroop.

Hay diferencia entre los 2 tipos de indicios: central y periférico.


 Indicio Central: la señal se da en el centro del campo visual (centro de la pantalla) del
sujeto y es necesario procesarlo y transformarlo cognitivamente para saber dónde dirigir la
atención. Posner ponía una flecha porque es muy fácil de transformar, pero se pueden
utilizar flechas, números… y se parte la pantalla en cuadrantes. Este indicio inicia los efectos
más lentamente, pero los mantiene durante más tiempo: de 150-300 MSEG de SOA
(asincronía de aparición del estímulo, tiempo que precede al estímulo), proporciona efecto
de beneficio óptimo. A partir de aquí se quedan asintóticos porque ya no hay beneficios más
grandes. ((las señales de tráfico que indican una curva?))
 Indicio Periférico: la señal se presenta en la periferia, allí donde luego aparece el estímulo. Se
da un efecto óptimo con 80-100 MSEG SOA (el indicio aparece antes del estímulo). Es un
captador automático de atención, no es una señal que sea necesario transformar. Además, es
más rápido que el central. Suele presentar inhibición de retorno (IOR), a diferente tiempo
según la tarea 300 (detección) -700 (discriminación) MSEG. Donde se capta la atención del
sujeto debe aparecer el estímulo; si en un periodo de tiempo no lo hace, la atención se cambia
a otro lugar. La probabilidad de atención de una zona donde se ha captado la atención
anteriormente es menor que en otra. Esto se debe a la inhibición de retorno.
Si después de entre 300-700 ms no ha aparecido el estímulo donde debería aparecer, el
sujeto tiene un mecanismo de inhibición activo. Si el estímulo es espacial el tiempo es un
poco mayor. Y si luego el estímulo aparece allí el tiempo de reacción del sujeto aumenta

10
(tiene un coste mucho mayor).

Si se utiliza un ordenador, en una zona cerca de donde aparece el estímulo, se cambia la luz de la
pantalla. Eso acorta el tiempo: si anteriormente los efectos beneficiosos se obtenían antes de
150mseg, actualmente aparecen todavía antes, dado que se da la captación automática.

Dependiendo del tiempo de SOA, se podrá procesar estímulo a distinta distancia. Con cierta distancia
empieza el SOA más rápido que con otra. Mezclamos distancia y SOA y se observa cómo viaja la
atención por el campo visual: la atención se mueve en los siguientes parámetros: A+Bx Tardando
8mseg de ángulo visual más (no es lo mismo que haya que atender a una persona que está a 2º de
ángulo visual que a otra que está a 8º de ángulo visual). El TSAL se calcula mediante la siguiente
ecuación: A+Bx 50mseg de ordenada en el origen + 8mseg por grado de ángulo visual. Espacialmente
se mide el ángulo visual en lugar de la distancia (dependiendo del ángulo varía la distancia). El ángulo
visual es más pequeño a mayor distancia y al contrario.

ANT (attention network test)


X → estímulo (condición de línea de base)
 X → ALERTA (aunque no te indican exactamente dónde se va a encontrar el estímulo)
X→
ORIENTACIÓN
X
Ensayo STROOP:
→ X →
Ensayo congruente:
→→X→→

Si se combina el tiempo de anticipación con la distancia a la que tiene que llegar la atención, es decir,
el tiempo previo con el que se pone un pre-indicio, se puede medir la dinámica de cómo se produce la
detección del estímulo, es decir, la atención. Si cuando se está procesando un estímulo parece otro
innecesario, se produce una disminución de la atención, porque te distrae produciéndose un
enmascaramiento perceptivo si son de la misma modalidad sensorial y si no los son se producirá
interferencia.

11
Stroop Emocional: Este paradigma fue estudiado como un fenómeno perceptivo. Lo descubrió
Stroop, de ahí su nombre. Si hay que leer amarillo escrito en tinta negra, vamos a tardar un tiempo
determinado. El stroop es una incongruencia entre dos dimensiones: una que es la relevante, en la que
hay que centrarse, y otra que es irrelevante y que genera una interferencia porque surge como
respuesta automática leer el significado de la palabra en lugar del color la tinta. Se puede estudiar la
atención como mecanismo de control. La puntuación obtenida con la palabra de color por sí sola no
dice nada, hay que corregirla en función de las puntuaciones P y C anteriormente obtenidas. El test
de stroop muestra lo resistente que se es ante las incongruencias.

P x C / P + C =PC’ (corregido)

Incluye 3 condiciones:
- Condición de facilitación (congruentes): la tinta de la palabra es del color del contenido semántico.
- Condición de interferencia (incongruentes): la tinta de la palabra es de diferente color al del
contenido semántico de la misma.
- Condición de control (no son nombres de colores): vaca

Búsqueda visual: Primeros estudios de atención visual, para medir orientación de la atención al
espacio visual normalmente, aunque también puede ser auditiva.
Consiste en buscar un elemento que tenga unas determinadas características que te suelen decir a
priori. Es ideado por A. Treisman.

Búsqueda paralela/automática: independiente del número de elementos a buscar. Por ejemplo, se


busca un gorro rojo entre verdes. En otro caso buscas una “X” roja entre “X” verdes y “T” rojas.

Búsqueda serial/secuencial: Pendiente de TR según el número de elementos a buscar. Se tarda más


cuantos más elementos haya.

Presentaciones Seriales Visuales Rápidas – PSRV: se presentan distintas palabras a los sujetos
cada muy pocos milisegundos (en un segundo se presentan unas 10). Hay una palabra que se
diferencia del resto (estímulo diana) y es la que el sujeto debe distinguir. Lo que ocurre es que se
produce un parpadeo atencional y el sujeto no comienza a distinguirlas hasta los 300-500 mseg (en
este tiempo no estás seleccionando si no que estás procesando el primer estímulo). No eres capaz de
decir inmediatamente después de detectar el estímulo diana, el siguiente estímulo, lo procesas y
después de por ejemplo otras dos palabras en minúsculas ya dices dicha palabra.
12
Se pueden averiguar aspectos del procesamiento utilizado analizando los efectos provocados en la
atención (atentional blink). Es decir, se pueden manipular/variar los aspectos del procesamiento en
función del parpadeo atencional.

Libro → LOBO → manta → tarta → crema

El sujeto debería decir la palabra manta, pero se comprueba que dice la palabra crema, porque
cuando se presentan las dos siguientes (manta y tarta) el sujeto está procesando aún la palabra
LOBO.

Aunque el tema es de los 90, tiene cierto parecido conceptual con el periodo refractario psicológico
(PRP), un tiempo de refracción durante el procesamiento, similar a lo que ocurriría con una neurona
(ésta se dispara cuando pasa un tiempo sin poder activarse). Cuando aparece el resultado del primer
procesamiento ya se puede empezar con el segundo. El PRP se manifestó en WELFORD en 1954. Se
generan cuellos de botella en el procesamiento en paralelo (hay 5 estímulos para procesar, pero si están
por separado,no se pueden procesar de manera simultánea. Si se empieza comparando 2, hasta que no se haga
esa comparación no se puede pasar a la siguiente. Si una fase del procesamiento está activa no puede pasarse a
la siguiente). Esta idea es la que permite trabajar sobre si se puede compatibilizar o no en tareas
dobles. Aunque el atencional blink y el PRP son diferentes, vienen a decir que hay que terminar una
tarea para comenzar otra.

Señal de Stop de Logan: es un paradigma que Logan creó en los 80 para establecer una teoría
sobre el automatismo del control: explica cómo las personas pueden hacer diferentes cosas de
manera automática para liberar recursos atencionales en algunas fases del procesamiento y cómo en
otras es imposible.
Para diferenciar si algo se hace de manera automática o controlada desarrolló un procedimiento que
consistía en elegir una tarea y dar una señal de stop. Además, se debía elegir un elemento temporal
en el que se daría la señal de parar. Si el momento temporal era muy pronto, era muy probable que
el sujeto pudiese parar (todavía realiza la actividad atencional de manera controlada). Sin embargo,
si el sujeto no puede parar pese a la señal, es que ha pasado a una ejecución automática. Ej.: se le
presenta al sujeto dos estímulos. Tiene que procesar ambos y compararlos mentalmente, diferenciar si son
iguales o no, seleccionar una respuesta para definir si son iguales o diferentes y, finalmente, ejecutar la
respuesta. Sabiendo si el sujeto es capaz de parar la respuesta se sabe si está ya en la fase de
ejecución controlada o en ejecución automática.
Se ha utilizado mucho para estudiar también procedimiento de inhibición. Si alguien es capaz de
inhibir conducta los aspectos de atención ejecutiva están bien. En un primer momento hay una fase
de comparación y luego una fase de decisión. Dependiendo del momento en el que el sujeto haya
dado a parar podemos saber en qué fase ha parado, aunque él no lo diga.

Doble Tarea: es un paradigma utilizado para comparar dos tareas. Utilizado para estudiar atención
dividida. Planteamos una tarea A y B, el sujeto ejecuta en solitario la tarea A (A) y también realiza una
ejecución conjunta de la tarea A con B (A´). La diferencia es la interferencia que causa B en A.
A veces los sujetos no hacen lo que se les dice que hagan.

13
Tarea A → A
Tarea A+B → A´
A (80) A’ (65) el coste por la interferencia de B en A es -15
B (20) B’ (10) el coste por la interferencia de A en B es -10
▪ Tarea A en solitario (ejecución óptima)
▪ Tarea B en solitario (ejecución óptima)
▪ Tarea A y B en ejecución conjunta (A’ y B’)
▪ Interferencia: A-A’ y B-B’ (se produce un coste)
▪ Intercambio recursos-ejecución (si empleas más recursos en A se lo quitas a B, o viceversa)

Ejecución Continua (CPT → Continuous Performance Test de Conners): detecta un estímulo o


secuencia de estímulos. Ej.: S seguida de X. Si se sigue de otra letra no se responde. La concentración
comienza a los 15 minutos, pero el auge es a los 30 min. Uno de los tests importantes para evaluarla
la CPT es el Test de Rizzo: se utiliza la realidad virtual para ver si el niño se distrae con los estímulos.
Se suelen hacer con el ordenador.
Utilizando omisiones y falsas obtenemos información acerca de la atención que muestra el sujeto y
de su impulsividad.

4. APARATOS PARA ESTUDIAR LA ATENCIÓN


Aunque los expertos en atención utilizan los aparatos de fisiología y demás, saben distinguir cual hay que
utilizar para estudiar determinado aspecto atencional.
 Taquitoscopio: especie de caja metálica de presentación de estímulos, el sujeto pone los ojos
en una raja de la caja (un visor) y a través de ella se le presentan los estímulos que pone el
experimentador. Utilizados hasta los 80, tenían la ventaja de tener una gran precisión
temporal, pero eran muy caros. Mejor resolución temporal y precisión de ms en la
presentación que un ordenador. Se utilizaba para estudiar el aprendizaje, la memoria…
Cuando se empiezan a divulgar los primeros ordenadores se presentan los primeros
programas para recoger datos.

 Aparatos de Reproducción acústica: magnetófono.

 Ordenador: dispositivos táctiles, información visual y auditiva simultánea, se podían expones


elementos que inducían elementos olfativos… se empezaron a usar.

 Seguidor de Movimientos Oculares: eye tracker. Es un dispositivo fijo o portátil que utiliza el
principio de reflexión corneal para analizar la información del ojo del sujeto por infrarrojos y
saber dónde está mirando. Recogen dónde está fijándose el sujeto, durante cuánto tiempo,
en que secuencia de movimiento, cuáles son las regiones de interés y la dilatación de la
pupila (que es un indicador de la atención) a través de un principio de reflexión corneal.

En una pantalla del experimentador pone la escena y las regiones de interés (ROI) del sujeto.
14
Fueron fundamentales para estudiar aspectos que de otra manera habrían sido imposibles.
Sobre todo, en niños o para ver cómo se observan los cuadros. Con esto se ha sabido que un
niño mira a la figura de apego y luego al resto de personas y que los niños autistas miran a los
labios, pero no a los ojos, es por esto por lo que pierden información de los estados
emocionales (ya que los ojos dan una gran cantidad de información emocional). Los primeros
en utilizarlo son los periódicos (“La Vanguardia”). También se emplea en supermercados…

 Electrofisiología: se utiliza para recoger información sobre los procesos cognitivos.


▪ EEG: a través de electrodos. Toma información de las ondas cerebrales cuando
alguien hace tareas de atención, como varían estas ondas, cuando hay una
sobrecarga atencional, por ejemplo. Se puede utilizar para realizar neurofeedback
(para niños con déficit de atención). El proceso que más se utiliza es σ/β. Con él se
pretende que los niños disminuyan las ondas zeta y aumenten las beta; hasta que
tengan un nivel normal de ambas.
▪ Potenciales Evocados: marca el momento en el que ocurre el evento crítico en lugar
de los datos en bruto sobre las ondas cerebrales. Precisión temporal alta, poca
precisión espacial.

 Neuroimagen: hay diferentes técnicas y son más difíciles de conseguir.


▪ PET: el material reactivo se inyecta o se inhala y se escanea a los participantes para
obtener una imagen de su cerebro. Ejemplo: se presentan dos videos acerca de la
naturaleza, uno de ellos trata acerca de la hoja de la cocaína, con la técnica de neuroimagen
PET podemos observar que, en aquellas personas que son adictas a la cocaína se produce una
activación del cíngulo anterior cuando ven el documental que trata de la hoja de la coca, sin
embargo, esta activación no se produce ante el otro documental.
▪ Estimulación magnética trascraneal: inhibe de manera temporal una zona cerebral
que está implicada en alguna función. Puede facilitar recuperaciones, por ejemplo, se
está utilizando en depresión.

▪ SPECT.
▪ Resonancia Magnética: utiliza un fuerte campo magnético que pasa a través del
cráneo. Usa señales de radiofrecuencia producidas por ondas de radio desplazadas en
un campo magnético mientras el sujeto realiza una tarea psicológica y con una línea
base de referencia. Crea una imagen detallada del cerebro. Tiene precisión espacial.
Lo importante son las tareas e investigar las diferencias una a una.
▪ Corriente directa: técnica más superficial. Llevada a cabo mediante estimulación
eléctrica. Es transcraneal.
▪ Magnetoencefalografía: mediante una estimulación magnética se inhiben de manera
temporal determinadas zonas cerebrales, evitando que se realice una determinada
tarea. Se utiliza en depresión, TOC…

 FNIRS: se utiliza para trabajar en atención. Es una técnica que utiliza infrarrojos y analiza las
zonas frontales en las que se produce activación cerebral.

15
****
Según el modelo de atención de Posner, hay variedad de redes neurales distintas en la
atención e interactúan entre ellas:
-Red Alerta, regiones corticales y subcorticales, como los ganglios basales y la dopamina.
-Red Orientación, red parieto-posterior que engloba estructuras como campos oculares.
-Red control, engloba la zona prefrontal.

La red de activación o de alerta interrumpe la red ejecutiva, por si es importante para dar
una respuesta, por eso esta red va a parar todas las demás.
La red de alerta disminuye la eficacia e interrumpe la red ejecutiva para que nos olvidemos
de la planificación por un momento, hasta analizar el estímulo y ver si es importante para
nuestra supervivencia.
Potencia la red de orientación hacia los elementos estimulares del entorno para potenciar la
recepción de información. Aumenta la alerta del estímulo ruidoso y facilita la atención hacia
la zona en la que aparece el estímulo para descubrir si tiene relevancia.

La red ejecutiva en un determinado momento puede intervenir con la red orientación, pero
si prima el componente conjunto de la tarea (la red ejecutiva). En resumen, pueden
interferirse mutuamente y va a primar la que tenga más importancia en el contexto de la
tarea. Por ejemplo: aparece un estímulo que puede ser importante para nuestra seguridad y
supervivencia. La red de alerta está con los estímulos captadores automáticos ante señales
importantes (olor a quemado, estruendo). La red de alerta capta esto, y la red ejecutiva (prestar
atención a varias cosas a la vez, planificar) interrumpe la red anterior y no la deja seguir.

También hay mecanismos inhibitorios (de orientación y ejecutivos) que a veces se combinan
para explorar lo novedoso (es decir, no solo interfieren). Sigue habiendo, en la actualidad,
estudios sobre esto.
Hay una cuestión de los procedimientos de estudios de atención referidos al paradigma de
Posner de … para estudiar las 3 redes, sabiendo que son independientes, pero que puede
afectar a una, pero a las otras dos no, aparece la tarea de preindicación.

ORIENTACIÓN: lóbulo parietal superior, conjunción temporo-parietal, frontal eye fields (FEF,
campo frontal del ojo), colículos superiores.

ALERTA: circuito frontoparietal derecho, con conexiones al córtex frontal derecho. El locus
coeruleus es importante porque es el responsable de secretar norepinefrina. A veces, puede
tener implicación en el hemisferio izquierdo en la alerta fásica.

ATENCIÓN EJECUTIVA/ RED ANTERIOR: atención de tipo frontal. El cíngulo anterior está
implicado en la supervisión de los conflictos, de tipo cognitivo o de tipo emocional (ej.
Stroop). Se activa la parte dorsal cuando se produce un conflicto cognitivo. Cuando es
emocional se activa la parte ventral del cíngulo anterior. Todo aquello que exige atención
porque hay…
El córtex prefrontal dorsolateral se activa en cualquier situación en la que tenemos que
cambiar un aspecto por otro (antes era importante prestar atención a letras, ahora a
números). Responde a lo novedoso, a los cambios, a la flexibilidad cognitiva.
16
Cuando un sujeto tiene dañada esta área, tiene problemas en las Tareas de Wisconsin. Al
cambiar de tarea, el sujeto reitera en el criterio anterior, aunque no sea relevante. El
neurotransmisor que actúa en esta red es la dopamina generada en los ganglios basales.
Normalmente son redes independientes que actúan de manera conjunta.

17
18
TEMA 2. ATENCIÓN SELECTIVA
1. FACTORES DETERMINANTES
La atención selectiva permite dirigir la atención a un elemento concreto en relación con otros estímulos.
Las características de los estímulos pueden ser físicas, perceptivas y comparativas:

CARACTERÍSTICAS FÍSICAS
 Tamaño: cuanto más grande, más fácil de captar.

 Intensidad: cuanto más intenso, más fácil atender al estímulo.


 Movimiento/Discontinuidad: si no son continuas, el sujeto no se habitúa y tienen mayor
efecto atencional. Es el principal captador de atención de manera automática. P. ej.: sirenas
de bomberos, ambulancia…
 Posición: la posición que ocupa un estímulo en el espacio influye en la atención.
• Percepción de objetos: A nivel visual, en el centro se procesa al 100% porque
coincide con la zona foveal. La densidad de receptores de la fóvea (conos)
permite una percepción más aguda. Para tareas de discriminación perceptiva,
preferimos la zona superior derecha.
• Percepción de movimiento: empleamos principalmente la zona visual
inferior. Esto tiene que ver con aspectos de evolución (Previc), pues abajo es
donde el movimiento puede hacer que me caiga o donde me puede atacar un
animal.

CARACTERÍSTICAS PERCEPTIVAS
Configuración de la Gestalt: estudiaron las características estimulares que nos llevan a atender. La
configuración del estímulo hace que la atención del sujeto se enfoque en el mismo. Se han
descubierto una serie de aspectos:
 Dificultad de identificación de clave embebida entre distractores, formando un grupo percep-
tivo. La dificultad de localizar un elemento que se encuentra formando un grupo perceptivo
con los demás elementos. Ej.: presentan un grupo de T ladeadas y una L también ladeada y hay o que
identificar la L. TTTTTLTTTTTLTTLTLTTT vs. TTTT LLLLL Ej.: buscar a Wally

 Facilidad de procesar dos dimensiones si forman grupo perceptivo: (Ej.: letra dentro de una
letra). Esto es lo contrario al punto anterior. Por ejemplo, cuando en aviación nos aparecen
varios parámetros juntos dentro de una misma pantalla, se favorece que no nos olvidemos
de ninguno de esos parámetros que forman ese grupo perceptivo.
 Papel de la experiencia: ej.: palabras y no secuencia de letras. D N D (donde)

 Familiaridad. Similar a la experiencia

 Conjunciones Ilusorias: Son más probables entre características de un único grupo que entre
dos diferentes. Si dos partes de una escena forman un grupo perceptivo es más fácil creer
que está presente una característica que pertenece a otro: Se percibe en un objeto una
característica que en realidad pertenece al otro. (Ej.: Ana y María se sientan siempre juntas
(grupo perceptivo) y Ana hoy no ha venid, pero la profesora afirma haberla visto (conjunción ilusoria)).
19
 Características Globales y Locales en la Percepción del Objeto: con más de 6 grados de ángulo
visual (la distancia de un brazo), el sujeto que lo observa capta primero la atención en lo
global y después hace un análisis de lo local, salvo que el sujeto haya sido sesgado. Por
ejemplo: una H grande formada por H, y una H grande formada por mini S. A más de 6º predomina la
H grande, a menos de 6º predomina la S. Esto fue estudiado por Navon y Gopher.

H H S S
H H S S
H H H S S S
H H S S
H H S S

PROPIEDADES COMPARATIVAS DE LOS ESTÍMULOS


▪ Novedad o cambio: cualquier elemento que implique novedad en determinado contexto
captara la atención del sujeto. Esto en moda es típico, nos cansamos de los colores de la ropa
de esa temporada. Lo que ocurre es que con lo que es reiterado se produce saciedad e
inhibición reactiva y, en algunos casos, habituación: se genera una respuesta de
inhibición debido a la habituación.

▪ Sorpresa: las emociones básicas son universales y el tipo de expresiones emocionales es


similar. Es más fácil sorprender con algo novedoso o cambiante, o si es inesperado en el
contexto. Por ejemplo, la de la sorpresa es abrir mucho los ojos y dilatar la pupila lo máximo
posiblepara procesar mejor el estímulo, empleado en el eye tracker.

▪ Incongruencia y Yuxtaposición Incongruente: si algo es incongruente en un contexto,


capta mucho nuestra atención (Ej: encontrar un perro en clase que hace de guía a un
chico me llama mucho la atención el primer día). La incongruencia es que algo no pega
en el contexto, pero la yuxtaposición incongruente consiste en mezclar cosas de dos
contextos diferentes que no pegan (ej. Abejonejo, imagen de animal con cuerpo de
guepardo y trompa de elefante).

▪ Complejidad: niveles bajos de complejidad no llevan a la atención (porque es muy fácil


de analizar, responder…), pero niveles muy altos tampoco (porque no sabría
responderlo). Lo que más se atiende es a un nivel medio de complejidad (nivel óptimo).
La complejidad se debe a la comparación del entorno. Attneave demostró a partir de un
experimento con polígonos que preferían niveles intermedios.

20
Los primeros que lo estudiaron fueron los investigadores en percepción; el primer autor
que lo hizo fue Berlyne,1966 quien estableció una serie de principios sobre complejidad:
▪ Irregularidad de la Disposición: cuando más irregular sea el estímulo en el
espacio visual/tonal, más difícil de analizar.
▪ Cantidad de Material: a mayor cantidad de material, más elementos a analizar
y mayor complejidad existe
• Heterogeneidad de los Elementos: una escena es más compleja cuanto más
contraste de elementos hay.
▪ Irregularidad (de la forma): no nos referimos a la disposición del elemento en
el espacio, sino al propio espacio (ej.: asimetría).
▪ Asimetría: algo es más complejo si es asimétrico, si no tiene un eje
▪ Distribución Aleatoria: si no tiene orden, es más complejo
▪ Nivel de complejidad óptimo: intermedio según el sujeto. Relación con la atención en
U invertida (ej.: polígonos irregulares). Ley de Yerkes-Dodson. Se cumple en muchos
aspectos psicológicos.

¿Por qué es tan difícil encontrar a Wally?


 Hay un agrupamiento perceptivo también denominado clutter (multitud de estímulos,
acumulamiento o crawding), por lo que es muy difícil segregar perceptivamente.
 En la atención selectiva influyen mucho las características del distractor y la clave, es de-
cir, la similitud entre el distractor y la clave.
 La heterogeneidad de los distractores: si los distractores son homogéneos generan menos
activación y si son heterogéneos más.
 Detectar ausencia de características en lugar de presencia. Detectar la ausencia de una
característica es mucho más difícil que detectar la presencia.

21
Sobresaliencia, textura Tamaño

Sorpresa, incongruencia (Viagra) ¿Tamaño?

Incongruencia, tamaño

22
2. FLUCTUACIONES DE LA ATENCIÓN

¿Qué aspectos hacen que fluctúe la atención? Hay momentos en los que un estímulo llama nuestra
atención, pero también hay otros en los que una persona puede querer cambiar el foco de la
atención.

CAMBIOS VOLUNTARIOS
 Novedad: algo novedoso (aunque para los demás no lo sea) hace que cambie el foco de atención.
 Interés o Propósito de la Tarea

 Probabilidad de Muestreo de un Instrumento: depende de:


▪ Tasa con la que aparece la información en el instrumento (modelo mental): si tiene
un modelo mental mal hecho no atiende cuando debe o cuando vendría bien. La tasa
en que aparecen eventos en un instrumento hace que yo lo atienda con mayor o
menor frecuencia (Ej.: un depósito de agua que se llena de 30 min o un termostato al que
atiendo cuando sube de temperatura de 5 en 5 grados. Pero si el modelo mental es
inadecuado, atenderé de forma inadecuada al termostato (esto suele pasar en los novatos).
▪ Tiempo transcurrido desde la última inspección. entre ese tiempo se puede atender
a otras cosas, pero poco antes de que acabe ese tiempo se vuelve a atender al
instrumento. (Ej.: si cada 5 minutos puedo tener un evento y no suelo tener ninguno
en menos de 5 minutos, entonces no tiene sentido focalizar la atención en el minuto
1. Un novato atendería en el minuto 1 o tiempo que hace que no se revisa eldepósito).
Esto puede apreciarse en tareas muy complejas como el pilotaje. Lo ha estudiado C.H. Wickens. Los
pilotos tienen múltiples distractores que pueden distraer su atención. El piloto óptimo debe ofrecer
un equilibrio entre ganancias y coste de datos al mostrar la información para conseguir información
relevante en cada momento. Los pilotos que no siguen estrategias apropiadas omiten información
importante con altos costes.

CAMBIOS INVOLUNTARIOS →captación automática de la atención

 Transiciones Abruptas: suele ser incontrolable y automático (por una cuestión adaptativa),
pero también se pueden controlar en ocasiones. El hecho de que se pueda controlar o no
depende de la intensidad del estímulo, de lo inesperado y del potencial del evento como
amenaza. Si el estímulo es esperado y de baja intensidad se puede controlar, y viceversa.
Mauricio Corbeta ha estudiado la reorientación de la atención espacial a nivel neuronal.

 Singularidad: elementos que son únicos o que resaltan de su contexto (singleton) hace que
automáticamente se realice un cambio de atención. (Ej.: atendemos a un cuadrado rojo entre
muchos cuadros verdes).

 Formación de un Nuevo Objeto Perceptivo: mientras se está formando o gestando un nuevo


objeto perceptivo, la información se reorienta hacia dicho objeto.

23
3. ESTÍMULOS DISTRACTORES

Hay varios aspectos que determinan si un estímulo nos va a distraer más o menos:
 Similitud Física entre estímulos relevantes e irrelevantes. Cuanto más parecidos, mayor
distracción. Si algo se parece físicamente a lo que tenemos que atender es más fácil que lo
seleccione como relevante (atienda) siendo un estímulo realmente irrelevante. Ej. 9 y 6.
 Distancia Espacial: cuanto más cercano esté un estímulo, más fácil el que distraiga. A 1 grado
de ángulo visual de distancia es imposible que no se procese.

 Relación Semántica entre estímulos relevantes e irrelevantes: cuanto más parecidos


semánticamente, más afecta el distractor. Ej.: los conceptos de perro y gato están relacionados
semánticamente, por lo que un elemento puede ser distractor si el otro es el relevante.

 Modalidad Sensorial: cuanto más coincidan la modalidad sensorial del distractor y el


estímulo relevante, más distrae. Ej.: si ambos son de modalidad auditiva, visual, etc. (Ej.: hay que
escuchar unas palabras y tengo alguien detrás hablando, por lo tanto, me distraigo más. Las
modalidades sensoriales coinciden)

 Correspondencia entre las Características de los Estímulos Relevantes y los Distractores:


los estímulos relevantes o distractores pueden tener una correspondencia:
a. Consistente: el que es distractor siempre es distractor y el que es relevante siempre es
relevante. Ej.: tengo que buscar, durante 500 ensayos, la letra N, S y H. Estas letras siempre son
siempre relevantes, y el resto de letras son irrelevantes.
b. Variada: el distractor y el estímulo relevante van cambiándose. Produce mayor distracción.
Ej.: tengo que buscar, durante 20 ensayos, la letra N, S y H. Después, tengo que buscar la R, P y Q.
Por tanto, el estímulo relevante ahora cambia. Las letras eran antes relevantes, a partir del
ensayo 21 son irrelevantes.
 Naturaleza del Distractor: específica o inespecífica. El contenido específico distrae más.
a. Específica: algo concreto, como una conversación. Es más fácil que distraiga (Ej.: distrae
más un cuchicheo suave de fondo baja que el ruido de las teclas del ordenador)
b. Inespecífica: no concreto, como un murmullo

4. MODELOS TEÓRICOS

4.1 MODELO DE FILTRO RÍGIDO DE BROADBENT


Consideraron que, al recoger la información del entorno, se filtra solo la importante (filtro rígido).
Se procesa lo importante y pasa a la memoria de trabajo; a la información que no es importante no
se atiende.

Se basa en las tareas de escucha dicótica de Cherry: se presentaba dos informaciones distintas, una a
cada oído. Se pedía atención a uno de los dos mensajes o se pedía luego una tarea de
reconocimiento con ítems de ambos mensajes).
Sombreado o seguimiento: se le pide que atienda a un mensaje e ignore el siguiente, por lo que
puede filtrar los mensajes.
Amplitud dividida: no se le dice lo que tiene que hacer. No tiene que atender a uno o a otro. Los
mensajes temporalmente se dan de manera alterna. La presentación en este caso es 276915. Se
preguntaba si recordarían por pares, es decir 27-69-15 o por oído: 261-795
Hallazgos: se da un mejor rendimiento al responder por oído frente a por pares.
24
Conclusión: cada oído es un canal. El procesamiento humano es serial, no simultáneo.
Principales Críticas: se pueden procesar mensajes no atendidos (nombre, cambio de mensaje a tono).

4.2 MODELO DE FILTRO ATENUADO


A veces, la atención es tan selectiva que actúa como un filtro. Este modelo se ha demostrado con un
experimento con gatos: es más fácil registrar la actividad de un único electrodo en el núcleo de la
cóclea: cuando se da un click auditivo se produce un aumento de amplitud eléctrica en
encefalograma: tras la presentación de un estímulo distractor, no aparecen potenciales asociados al
click; aunque esto depende de las posibles situaciones.
Tras la presentación de un estímulo distractor de gran relevancia biológica (como un ratón), no
aparecen potenciales asociados al clic. Al eliminar el distractor (quitar el ratón de la vista del gato),
vuelven a aparecer los potenciales.
Existen determinadas características de los mensajes no atendidos que se procesan de forma
superficial, como puede ser un nombre, el tono de voz o el tipo de idioma.
Esto hace que investigadores como Treisman se pregunten si en realidad el filtro no es tan rígido
como ellos pensaban:
Podría ser que existiese un filtro atenuado: en su totalidad solo hay un estímulo que pase el filtro y es
aquel que el sujeto decide atender, aunque, de manera superficial, también pasa cierta información.
Cuando se atiende selectivamente algo se filtra una característica en su totalidad y las demás de
manerasuperficial o atenuada.
Hay un experimento de Grey & Wedderburn que demuestra esto. Se dotó de sentido a lo irrelevante
al mezclarlo con lo relevante. Por tanto, el sujeto procesa lo relevante. Para poder enterarse del
significado, los sujetos procesan la información antes de que esta llegue al filtro.

Experimento de Grey y Wedderburn (1960): Mezclando información de los dos oídos (el atendido y
no atendido) daba lugar a información coherente y con sentido. Querida - 5 - María; 2 - Prima - 8. A la
mitad se les dice que tienen que atender al primer mensaje y a los demás al segundo. Todos
recuerdan “Querida Prima María” y en menor medida “5-2-8”.
Busca una integración de los dos mensajes buscando encontrar un significado. Cuando la información
irrelevante puede tener sentido con la relevante, no se descarta, sino que se integra. Información
incluso semántica pasa del oído no atendido. Los sujetos dotarían de cierto significado incluso a los
mensajes no atendidos e irrelevantes antes de filtrarlos y no procesarlos.

25
4.3 MODELO DE FILTRO ATENCIONAL PRECATEGORIAL Y POSTCATEGORIAL
Estos modelos postulan la existencia de un filtro de inputs. Hay un experimento de Grey y Webber
que no se tuvo en cuenta hasta mucho después. En éste se mezclaba el mensaje relevante e
irrelevante, pero solo se utiliza la información que se volvía significativa. Si se le dice al sujeto que atienda
solo a lo que escucha por un oído, no lo consigue, se queda con la información que requiere de ambos. Cuando
el mensaje no atendido adquiere significado con el que es atendido, es procesado, le da significado
conceptual al estímulo. Esto los llevó a pensar que la atención actuaba después del procesamiento
conceptual mínimo.

 Mensajes Precategoriales: la atención actúa para seleccionar la información, antes de darle


significado.

 Mensajes Postcategoriales: la atención actúa después de darle significado a la información.

Ambos consideran la necesidad de un análisis de características de los mensajes que permiten un


procesamiento categorial y conceptual.

Surgen modelos de filtro postcategorial:


 Deutsch y Deutsch: Siempre hay un análisis de significado previo a la atención. En lugar de
procesar un estímulo en su totalidad y los demás sólo un poco de sus características físicas,
se analizan las características de todos los mensajes, que tienen parte del significado. Del
analizador salen los mensajes analizados en sus características componentes (A’, B’, C’, D’,
E’). De estos mensajes hay uno que por la situación o las intenciones adquiere relevancia y es
el que pasa el filtro con totalidad. En este caso la atención actúa de manera post-categorial.
Ej.: input sensorial presenta 5 mensajes que pasan al almacén sensorial del sujeto. Los mensajes, en su
totalidad, son analizados; pero solo el más relevante pasa al filtro de atención.

Problema: no articula bien en virtud de qué se hace el análisis de las características ni cómo
se integra la relevancia con eso (¿Relevante en virtud de qué? ¿Características físicas?)

26
 Norman: El análisis de características se hace por dos vías. Cuando se recibe un mensaje lo
primero que se genera es una representación en memoria de aspectos asociados a esos
mensajes (Ai, Aj, Ak), que son directamente evocadas por el mensaje según llega. El sujeto
tiene unas representaciones en memoria según sus intereses, recuerdos, etc. (Bi, Bj, Bk). Al
integrarse la representación del estímulo y del sistema mental (¿) de la persona se establece
cuál es el mensaje con mayor pertinencia, que es el que será seleccionado y atendido.

Dos sistemas de memoria: uno evocado directamente por el estímulo y otro son las
representaciones en memoria en el momento. Las representaciones de pertinencia son
endógenas, que, al integrarse con las representaciones de los estímulos evocadas
espontáneamente, se selecciona uno u otro estímulo, el más pertinente.

Ej.: tengo 3 mensajes (3 estímulos: Ai, Aj, Ak), de cualquier modalidad sensorial. estos activan dos
tipos de modalidades sensoriales. Se hacen unas representaciones directas (relacionadas son la
memoria semántica) y otras indirectas (relacionadas con la propia persona: Bi, Bj, Bk). La suma de
ambas representaciones es la que pasa el filtro sensorial.

Los modelos de filtro postcategorial defienden que: se analizan en paralelo todos los mensajes sensoriales,
pero los procesos de análisis no alcanzan la conciencia del sujeto, éste solo percibe el mensaje seleccionado por
el filtro. Así que los análisis previos al filtro serían operaciones automáticas.

4.5 MODELO DE FILTRO ATENCIONAL FLEXIBLE


El filtro puede ser temprano o tardío. A nivel visual se produce mucho.
 Johnston & Heinz: el filtro es flexible, unas veces actúa pronto y otras, tarde.
 Neisser → Análisis por Síntesis: Puede haber una parte pre-atentiva inicial que se procesa sin
que haya mucho a lo que haya que prestar atención, en paralelo, pero después ya se presta
atención de una manera consciente. Habla de análisis por síntesis: una parte previa en paralelo
de todos los mensajes relativamente superficial y luego una parte de orientación voluntaria.

27
 Teoría de N. Lavie sobre la Carga Perceptiva: es más de tipo visual. El filtro podría ser tarde o
temprano dependiendo de las condiciones estimulares y la tarea realizada.
Si las condiciones estimulares son de alta carga perceptiva (hay muchos estímulos), el filtro
tendría que darse antes porque si no se producirían muchos distractores e interferencias.
Si la carga perceptiva es baja, el filtro se produce después porque, por mucho que indiquen
que el sujeto debe atender al estímulo, es muy difícil que no atienda al resto (todo entra). Lo
que ocurre es que los estímulos a los que supuestamente no debería atender el sujeto
funcionan como distractores y tienen baja carga perceptiva.
Hay condiciones estimulares que exigen mucha atención o hay muchos estímulos, se puede
concentrar el filtro muy pronto. Si la carga atencional es grande, hay que poner el filtro muy
pronto. Si la carga atencional es leve, se puede procesar primero en paralelo y luego ya se
enfoca con un filtro tardío. Las demandas contextuales son la carga perceptiva y la carga
cognitiva es las características de los estímulos y su cantidad (creo).
Si la tarea es muy compleja y tiene alta carga perceptiva, el filtro atencional se presenta al
principio; si es baja se presenta más tarde.

 Teoría de Integración de Características: autores que se plantean como se atiende a los


objetos: la atención selectiva no es solo para seleccionar un estímulo, sino también para
seleccionar un estímulo a partir de la integración de sus características → teoría de
integración de características (TIC).
La atención selectiva integra en un objeto las características que lo componen, de tal manera
que éste pueda ser seleccionado para su procesamiento. Existen distintos estadios de
procesamiento visual:
1. Procesamiento a Nivel Preatentivo: codificar y registrar los estímulos dentro de un
mapa especializado de localizaciones. Registro de las propiedades en mapas individua-
les, elaborado por Treisman. (Ej.: según entro en clase hay pupitres, personas, ventanas,
ordenadores...). Se realiza en paralelo.

2. Procesamiento Atencional: focalizar la atención sobre la localización de una caracte-


rística determinada. Esto permite la conexión de mapas de características simples y de
localizaciones obtenidos en la fase anterior. La conexión es producto de la atención
focalizada: para poder integrar las características es necesario focalizar la atención a
un lugar (nada diferente a Neisser). (Ej.: buscar a alguien vestido de rojo).

28
3. Nivel de Respuesta Voluntaria o Consciente: identificar los estímulos mediante un
emparejamiento con representaciones en memoria. Se hace un procesamiento
guiado de arriba abajo, estoy buscando algo específico.
Cuando se atiende para seleccionar algo, hay dos tipos de búsqueda:

 Búsqueda en Paralelo: patrón habitual en la búsqueda de características simples, que


además suele ser única, se distingue fácilmente, porque suele ser bastante distintiva
dicha característica.
La primera fase busca lo que se necesita (diferente a la atencional).
La función del tiempo de reacción (TR) no depende del número de características
entre las que se busca, es aproximadamente plana. Es una búsqueda paralela sin
atención (simultánea).
Procesamos el color mucho más rápido que la forma, por
características estimulares. La T sobresale ante las X y
además, es de un color diferente a las demás, resalta
respecto a la homogeneidad del fondo.

 Búsqueda Secuencial / Serial (atencional): patrón habitual en búsqueda de la


conjunción de características simple. Ej.: buscar las llaves de casa en un cajón donde hay
muchas llaves.

La función de TR depende del número de características entre las que buscar.


Proporción de ensayos negativos-positivos 2:1 (cuando el elemento a buscar está
presente (positivo), tardamos la mitad de tiempo que cuando no está). Cuando alguien
no está en clase tardas más, el doble porque lo miras todo, que en decirlo que cuando si está.
En los ensayos negativos se mira hasta el final y se re-chequea.

- Búsqueda guiada de Wolfe: dice que no es tan importante el número de elementos


entre los que buscar, sino que es más importante el número de elementos que
comparten una característica relevante que sea la que te guíe para buscar. En este
caso es el rojo y no la forma. (no depende del número elementos total sino el
número de elementos que comparten la característica por la que te vas a guiar.) (no
es 1:13 sino 1:8). En otras palabras, el número de total de elementos que me afectan
no son los elementos distractores, si no el total de distractores que comparten la
característica de búsqueda guiada.

Es más rápido buscar por color que por forma.

 Búsqueda Visual:
▪ Simple (una única dimensión: por color o forma). Puede ser pre-atentiva (función plana).
▪ Conjunción: combinación de 2 propiedades en 2 dimensiones: por color y forma.
La función de ensayos positivos para conjunción no es tan plana.

29
4.6 MODELO CONEXIONISTA DE SLAM
Hay muchos modelos que intentan integrar modelos neurológicos con metáforas de cómo se
selecciona la información.
Phaf, Van der Hejiden y Hudson, 1990, estudiaron los procesos de:
 selección del objeto (control de la fuente estimular).
 selección del atributo (control de respuestas).
Definieron una disposición estructurada de nodos interconectados a través de los cuales circula la
activación que los conecta.

(1) Que un nodo se active depende de la activación que se recibe de otro elemento y el peso relativo
de esa conexión. Ej.: Existen 3 niveles: el nivel más bajo es el de mapeado (comparación rasgo a rasgo (objetos
con diferentes características)).

(2) En el siguiente nivel se establecen comparacionesde atributos y rasgos

(3) en el nivel superior, se desarrolla el programa de acción motor que hace que la atención se dirija a
un determinado objeto en base a los procesos anteriores.

Cada nivel se traduce en Nodos:


 Niveles de mapeado
 Niveles de atributos o rasgos
 Niveles de programa motor

Dentro de cada nivel, los nodos se agrupan en Módulos:


 Atributos: módulo de color, módulo de forma y módulo de posición
 La activación de un nodo depende de la activación que recibe de las conexiones de otros
elementos y el peso relativo de dichas conexiones.

Las conexiones entre nodos están reguladas por una serie de Reglas:
 Nodos del mismo módulo: solo conexiones inhibitorias (color1 vs color2).
 Si están en el mismo nivel, pero diferente módulo (color y forma): no se conectan (color
no se relaciona con forma en el nivel de atributos, aunque estén juntos en el mapeado y
se unan para dar respuesta), son independientes.
 Nodos de distinto nivel (mapeados): solo se conectan si son adyacentes. Pueden ser co-
nexiones excitatorias o inhibitorias: de mapeado a atributos y de atributos a programa
motor, o de programa motor a atributos, y de atributos a mapeado. (Primero se tienen
que activar los atributos).
▪ Si los nodos de distinto nivel conectados tienen representaciones compatibles:
la conexión es excitatoria en ambos sentidos.
▪ Si los nodos de distinto nivel conectados tienen representaciones incompatibles:
las relaciones son inhibitorias.

30
5. ATENCIÓN AL ESPACIO VISUAL

La atención visual puede ser definida como una forma de procesamiento de capacidad limitada que se puede
distribuir de forma selectiva a lo largo del campo visual. Esto posibilidad que algunas áreas o localizaciones
del campo visual reciban más atención que otras. La mayoría de las investigaciones que trabajan en el ámbito
de la atención espacial rechazan el concepto de filtro y parte de que la atención visual tiene un foco espacial.
Analizan el papel de los indicios espaciales en el ámbito de la atención y cómo se producen los movimientos
oculares.
Se pensaba que primero se atiende al espacio y luego a las características del objeto del espacio, es decir, la
atención era el foco de la mente y se enfocaba a aquello que queríamos atender para optimizar el
procesamiento.

 Modelo de Foco (Posner): la atención es como un foco de luz en el que se proyecta, profun-
diza y optimiza el procesamiento. Lo suelen emplear los ingenieros. Posner estudió la
atención al espacio visual con este paradigma:
- Foco fijo: existe un grado angular alrededor de la información relevante para el sujeto. Por
mucho que sepamos que el estímulo era irrelevante, es inevitable procesarlo (hay
interferencias). R A R, nos dicen que atendamos a A y atendemos, aunque no queramos a R.
Para optimizar la atención se utilizan los recursos visuales como “fovear”, y se centra el
espacio a 1 grado de ángulo visual.
o El procesamiento de los estímulos que caen dentro de este foco es más rápido y eficaz de
los que caen fuera.
o El foco tiene que moverse cuando el estímulo objetivo aparece en una localización no
atendida.
o Su velocidad de desplazamiento es constante y abarca los objetos que se sitúan dentro de
él. Cuando tiene que moverse, el tiempo de respuesta del sujeto se incrementa.

- Variable: más o menos externo según características de tarea, ya que el sujeto puede
modificarlo según la tarea que tiene que realizar, ajustarlo bajo ciertas condiciones. El ángulo
visual puede ser de más de un grado.
Ponemos w o r l d y solo tiene que atender a r, y luego le pedimos que recuerden un número,
según donde esté el número situado el tiempo de reacción será diferente. En la r es cuando el
tiempo tiene que ser más bajo, y en las otras letras tardará más tiempo (progresivamente
desde el centro hasta los extremos, formando así en la gráfica una V)

Experimento de LaBerge (1983): se trata tarea compuesta, atender a la letra del centro de la
pantalla, y después de presenta un número que puede presentarse en puntos más o menos
cercados al centro de la pantalla. Por lo que el tiempo de reacción debe de ser más rápido
cuando el numero está en el ángulo visual, mientras que cuando el número está en un flanco,
dicho tiempo de reacción va aumentando porque no se encuentra en el mismo ángulo visual
que el estímulo a atender (la letra).
En otro experimento, se manda al sujeto que atienda a una palabra que se encuentra en el
centro de la pantalla (w o r l d), después se presenta otro conjunto del mismo número de
letras con sentido (c e s t o), por lo que el tiempo de reacción es plano, ya que no nos influye
el ángulo visual en el que se encuentre, ya que ambos conjuntos de letras abarcan el mismo
espacio y tienen sentido
Si el estímulo tenia significado el ángulo abarcaba más que un foco, la gráfica era plana. (El
foco era variable según el tipo de estimulación que se presenta).

31
 Modelo de Gradiente (Shukman, Sheey y Wilson): los recursos atencionales varían según el
gradiente en que cae la información a atender, ya que en la zona central del foco tenemos
más recursos, mientras que cuando nos dirigimos hacia los extremos, los recursos van
decreciendo. Este modelo tiene en cuenta la estructura de la fóvea, la cantidad de receptores
para la agudeza visual: cuánto más periférico, menos conos y más bastones, por lo que hay
menos agudeza visual. Por tanto, proponen que la atención es un recurso que puede
distribuirse en múltiples localizaciones.

 Modelo Biproceso (Jonides y Yantis): antecedente de una variación desde la metáfora de


foco hasta la de lente zoom. Es el modelo que actualmente se admite. Considera que existen
dos procesos atencionales del espacio, por lo que se puede atender de dos maneras:
▪ Atención Amplia: distribuida por todo el espacio, dispersa o distribuida. Ej.: un golfista.
▪ Atención Focalizada: distribuida en algo en concreto. Ej.: un centrocampista de fútbol.

•  Modelo de Lente Zoom (Eriksen): una ampliación del modelo biproceso. El poder de
resolución atencional varía inversamente con la amplitud:
- Cuando el campo de visión del foco es muy amplio: atención extensa con poco poder de
detalle porque los objetos de dentro del campo de atención no reciben ningún
procesamiento significativo, poca resolución. A mayor amplitud, menos concentración
atencional.
- Cuando el campo de visión disminuye: atención intensa con gran resolución, se restringe
el espacio y se aumentan los recursos atencionales dados a ese espacio, los objetos son
analizados con mayor detalle y precisión. A menor amplitud, más concentración
atencional.
La atención puede actuar en distintas áreas del campo visual pero los estímulos que reciben mayor
atención son aquellos contiguos en el espacio al foco. Puede ser endógena y exógena:
• Endógena: son procesos voluntarios que se dan por preindicios centrales.
• Exógena: captura automática de estímulos periféricos. Puede producir la inhibición de
retorno (IOR) debido a que se produce por un automatismo.

32
33
6. MEDIDAS DE ATENCIÓN SELECTIVA
Procedimientos con los que, a nivel experimental, se pretende obtener información:
 Tareas de Escucha Dicótica: para filtrado de estímulos a nivel auditivo. Hay aspectos a nivel auditivo
que pueden ser relevantes en cuanto a la atención.

 Tareas de Búsqueda Visual: filtrar atenciones irrelevantes, ser selectivos a objetos visuales.

 Tarea de Clasificación Rápida (WCST): ser relevante a un criterio para la clasificación de un


elemento seleccionándolo en virtud de ese criterio e inhibiendo otros criterios distractores.
WCST (Tarea de clasificación de cartas de Wisconsin): mide la flexibilidad atencional. Se
utilizan cartas para clasificarlas mediante características que tienen, es decir, mediante una
dimensión. Se comienza a clasificar las cartas por la dimensión forma, y después por color,
por lo que hay que filtrar las características para poder atender a lo que se pide, es decir, hay
que cambiar de criterio para realizar la clasificación de cartas, midiendo la flexibilidad
cognitiva al criterio. Es por ensayo-error, entonces puede haber errores hasta que conoce
cuál es el nuevo color. Pero cuando el sujeto persevera en una característica que tú ya le has
dicho que es irrelevante, se llama error de perseveración. Estos errores son de inflexibilidad
cognitiva, suelen ser daños de frontalidad (estás fijado en algo).

 Tareas de Comparación Perceptiva: se comparan elementos iguales o distintos al modelo:


comparar estímulos iguales y filtrar los distintos para seleccionar el elemento que se parezca
al elemento modelo previamente dado (comparar en virtud de un atributo relevante
filtrando lo irrelevante). Permite un entrenamiento de habilidades atencionales.

 Tareas de Aprendizaje Central-Incidental: son tareas que se utilizan para estudiar aprendizaje
o la memoria del sujeto: se le da una determinada información y, posteriormente, se le dice
qué se le va a preguntar. El aprendizaje incidental es una medida inversa de la atención selec-
tiva. Por ejemplo, se pregunta si María ha venido a clase y al día siguiente se pregunta dónde ha estado
Lucas sentado. Si el sujeto lo sabe atendió a información irrelevante. Cuando la carga
perceptiva es baja, se puede aprender todo.

 Test de Stroop: tiene un componente de control e interferencia: es un elemento extra que


supera la atención selectiva del sujeto.

 Test de Figuras Embebidas de Gottschaldt: figuras que están solapadas con otras. El sujeto
debe buscar un conjunto de estímulos de una figura que después se le vuelve a presentar en-
tremezclada con otras.

 Test de Tachado o Cancelación: puede ser de dígitos, letras… El test de tachado de Toulouse
Pieron pretende que el sujeto encuentre dos símbolos entre otros muchos. Gauthier, Bricken-
kamp (campana??).

 Trailmaking Test (A): el sujeto debe seguir trayectorias a través de un solo trazo. La versión A
es de atención selectiva y la versión B atención controlada porque hay que unir letras con
números (1 A 2 B 3 C 4 D…).

34
 Medidas de Tipo Garnier: exigen filtrar atributos, es decir, clasificar en base a una dimensión
y no dejarte distraer por otras presentes. Es decir, el filtrado de atributos consiste en filtrar la
información relevante:

• Clasificar por tamaño, olvidar la forma.


• Con dimensiones integrales, interferencia de lo irrelevante.

• Con dimensiones separables no hay interferencia.

 Influencia de la Información Irrelevante con Variación Graduada: medida inversa de atención


selectiva. Hay interferencia si el tiempo de reacción de los sujetos a la dimensión relevante es
mayor cuanta más diferencia hay con la dimensión irrelevante.

 Truco de Magia: truco en el que desaparece la carta que escoge el sujeto. Cuando se atiende
selectivamente a un objeto, es probable que aparezca la ceguera atencional a los demás. La
ceguera atencional consiste en obviar la presencia de algo que está muy presente por tener la
atención focalizada en otro. No se necesita la memoria. La ceguera al cambio implica un
cambio secuencial, por lo que sí se necesita una representación memorística. Existen factores
que afectan a la ceguera al cambio:
▪ Localización (áreas foveales o no).
▪ Movimiento o no (captador automático de la atención).
▪ Contraste (a mayor contraste, más dificultad de tener ceguera).
▪ Cambio progresivo y lento o inmediato.

35
36
TEMA 3. ATENCIÓN DIVIDIDA

Es una capacidad que tiene la atención. Es a partir de los 11 años cuando empieza a haber una buena
capacidad de la división de la atención. Pero sigue progresando poco a poco según crecemos y nos
desarrollamos.

1. DIVISIÓN DE LA ATENCIÓN Y LA MULTITAREA


Se plantea que la atención puede dividirse en diferentes tareas simultáneas. Esto es algo que se les
exige a las personas en su día a día.

1.1 PARADIGMA DE LA DIVISIÓN ATENCIONAL


 Los límites atencionales se producen en la ejecución o realización de tareas (no solo en la
percepción). Tanto en la selección de estímulos como en la selección de respuestas, ligada
también a la ejecución de tareas.
 Se abandonan los modelos estructurales a favor de concepciones funcionales (capacidad) ins-
piradas en conceptos económicos.
 La atención es un sistema de energía cognitiva (recursos) que se distribuye entre las tareas u
operaciones mentales concurrentes (simultáneas). La atención es limitada, por eso debe
distribuirse de manera concurrente. Pero hay una limitación cuellos de botella. No puedo
procesar a la vez por ejemplo siete estímulos diferentes.

 Cambia el paradigma de escucha dicótica (atención selectiva) por el de doble tarea (atención
dividida).

Precisiones Terminológicas
 Interferencia de Capacidad: las dos tareas pueden realizarse físicamente a la vez, pero
requieren la misma atención por lo que se interfieren la una con la otra. Esta es la que
estudiamos en atención. Responder a alguien por teléfono a la vez que estás respondiendo a
alguien por el móvil. Esto depende de los recursos atencionales que yo le presto y por eso
esta sí es debido a una cuestión de capacidad.
 Interferencia Estructural: se produce porque alguna parte corporal hace imposible la
realización de dos tareas. Físicamente es imposible realizar dos tareas de manera simultánea
(se utilizan los mismos efectores u órgano sensorial). Ej. No se pueden responder a dos
personas a la vez, el lenguaje es algo serial, no secuencial. No es una cuestión de capacidad.
Cuando se estudia la atención dividida se está estudiando la interferencia de capacidad, no la
estructural.

Norman y Bobrow:
 Procesamiento Limitado por los Datos: es aquel que es independiente de la atención que se
preste, depende de las características de los datos (características estimulares o condiciones
de tareas) que le llegan al sujeto o de si es algo automático. Si es automático lo va a hacer
muy bien independientemente de la señal, si no lo es da igual la atención que le preste que lo
va a hacer mal igualmente.

37
La ejecución puede ser muy mala o muy buena. Si tengo una tarea automatizada, da igual que tenga
muy buenos recursos o muy malos.
 Procesamiento Limitado por los Recursos: la eficiencia depende de la atención que se le
presta. Si el sujeto presta mucha atención al estímulo, ejecuta muy bien la tarea; sin embargo,
si disminuye la atención prestada, no ejecuta tan bien la tarea. Este es el que nos interesa
cuando estudiamos atención.

2. MODELO DE RECURSOS ATENCIONALES MÚLTIPLES. WICKENS, 1984


Este modelo permite predecir por primera vez el grado de interferencia entre tareas, no medirla. Los
recursos son de carácter específico. Permite interferencia o no: cuanto más comparten las tareas,
mayor posibilidad existente de interferencia en la ejecución conjunta del sujeto.
Wickens dice que hay diferentes aspectos a tener en cuenta:
 Atención
En la evaluación del modelo de cubo de Wickens se tienen en cuenta cuatro parámetros:

 Modalidad Sensorial del Input: Las tareas se realizan a partir de la información sensorial que
llega al sujeto a través de los distintos canales. La información llega principalmente por una vía
sensorial, normalmente la visual o auditiva. Aunque Wickens solo señala estas dos
modalidades de entrada sensorial, ahora se sabe que hay muchas más, como la táctil. Se
produce una mayor interferencia cuando dos tareas comparten la modalidad sensorial que
cuando son diferentes.
 Estadío o Fase de Procesamiento: procesamiento superficial, codificación, elaboración
profunda (cognitiva) y respuesta. Es en lo que hay que centrar atención. Si coincide el tipo de
procesamiento, se da más interferencia entre ellas (2 tareas visuales).
▪ Procesamiento perceptivo
▪ Procesamiento a nivel central
▪ Nivel de respuesta o motriz
▪ Se produce más incompatibilidad entre tareas cuando ambas exigen el mismo nivel de
procesamiento.

38
 Tipo de Código usado en la Fase de Procesamiento: el código es la representación conceptual
que el sujeto debe hacer. Wickens destacó los códigos espaciales (figurativo) y verbales.
Aunque existen otros, como el numérico.

 Modalidad de Respuesta. Wickens hablaba de respuesta manual y vocal; aunque también


puede ser motora en general. Cuanto menos coincidan, más compatibles serán las respuestas.
Esto es debido a que el procesamiento cerebral para el lenguaje es específico de otras áreas
motoras. Si las tareas requieren niveles de respuestas iguales, se produce más interferencia.

Este modelo permite predecir si se producirá interferencia entre tareas, pero no cuantificarla.

3. PROBLEMA DE LA LIMITACIÓN DE RECURSOS

En la tabla se refleja la evolución de los Modelos de Atención. Distingue entre modelos estructurales y
modelos de capacidad. Los estructurales son los de atención selectiva: al principio la atención se con-
sideró un filtro de información relevante; pero después se tuvo en cuenta el multiprocesamiento y
apareció el Modelo de la Metáfora Estructural. Después de los modelos estructurales se pasó a los
modelos de capacidad (atención dividida), distinguiendo entre modelos de diversas capacidades y ca-
pacidad única.

39
Cuando el sujeto no es capaz de atender simultáneamente a múltiples demandas del ambiente porque
sobrepasan su capacidad atencional, se produce el fenómeno de la interferencia (workload).

Existen dos tipos de interferencia:


 Interferencia Estructural o Específica: Tiene lugar ante una determinada situación demanda:
(1) o bien son procesos que, por sus características, comparten ciertas estructuras cognitivas,
canales de procesamiento o efectores (ej. Dos cosas con la misma mano); (2) o bien procesos u
operaciones que, aun no compartiendo las mismas estructuras, solo pueden funcionar de
forma serial. (ej. Seguir con cada pie el ritmo de una música distinta).
 Interferencia de Capacidad o Inespecífica: Hace referencia a la existencia de recursos energé-
ticos comunes a dos o más tareas de tal manera que, cuando dos tareas consumen los mismos
recursos, interfieren entre ellas. Está relacionada con las diferentes implicaciones atencionales
de las tareas. Se produce cuando la atención prestada a una tarea repercute negativamente
en las otras. Existen dos tipos de interferencia de capacidad:
▪ Simétrica: en ambas están limitados los recursos. La tarea A deteriora el rendimiento
en la tarea B porque ambas tareas ne- cesitan atención. A mayor atención mayor
ejecución en la tarea. Ambas tareas se ha- llan limitadas por los recursos y por ello se
interfieren mutuamente.
▪ Asimétrica: una depende mucho de los recursos y la otra no. El rendimiento sólo se
deteriora en una de las tareas. Ello supone que sólouna de las tareas está limitada por
los datos –la que no ha sufrido deterioro- y la otra por los recursos -la que se ha visto
deteriorada en la situación dual-.

4. MODELO ATENCIONAL ESTRUCTURAL DE WELDFORD. ATENCIÓN COMO FILTRO


Esta teoría parte desde un punto de vista de multiprocesamiento y lo expresa con la metáfora del
cuello de botella. El recurso energético cognitivo no es un filtro o procesador; sino que se distribuye
para las tareas de ejecución. Surgen metáforas como la capacidad única.
Hay autores que piensan que tiene que haber recursos específicos para diversas capacidades: Existen
recursos de uso general y otros de uso específico. Esto Avanz y Navon y Gopher proponen que los
recursos son estructuras con capacidad propia distribuible entre los procesos.

4.1 PARADIGMA DE LA DOBLE TAREA


Se pide a los sujetos que realicen dos tareas, más o menos simultáneas, y se considera el grado de
deterioro en el rendimiento en una de ellas como un indicio de atención de la otra tarea.
▪ Tarea Primaria: es la tarea que precisa más atención.

▪ Tarea Secundaria: tarea que interfiere.

→Tarea A en solitario, tarea B en solitario, tarea A y B en ejecución conjunta: intercambio recursos-


ejecución.

40
Hay dos posibles resultados en los datos que nos permiten saber si una tarea se realiza de manera
automática o no:
▪ Aditividad Estadística (líneas paralelas): siempre se añade lo mismo (100ms). La tarea primaria
se lleva a cabo de manera automática. La tarea secundaria interfiere en la primaria
independientemente de los niveles de dificultad de la misma. Ejemplo: andar (primaria) y hablar
(secundaria).

▪ Sin Aditividad Estadística: el coste variaría porque la tarea primaria no es automática y es


interferida por la secundaria.

TIPOS DE INTERACCIÓN ENTRE TAREAS


 Interacción Divergente: la tarea primaria se realiza de manera controlada atencionalmente y
la interferencia que provoca la secundaria es mayor cuanto mayor es la dificultad de la tarea
primaria. Esto es así porque cuanto más difícil es la tarea secundaria más interfiere con la
primaria porque necesita los recursos que está utilizando. Aumenta la interferencia de la
tarea secundaria según aumenta la dificultad de la tarea primaria (líneas secantes,
intersección).

Ej.: responder a un estímulo a la vez que entiendo una revista de ocio o un ensayo filosófico.
Esperamos que la atención que necesitamos para comprender un ensayo filosófico es mayor, que un
artículo de opinión que una noticia de “cotilleo”. Si añadimos otra tarea a la vez que estamos leyendo,
interfiere más en la tarea de mayor dificultad (esto significa que estamos utilizando los recursos
atencionales y que no estamos realizando esta tarea de una manera automática).

Cuando la interferencia de la secundaria es mayor según es la dificultad de la primaria más


elevada podemos decir que esto se realiza a nivel de control atencional y no a nivel automático.
A partir de los datos estadísticos, podemos ver si la atención es controlada o no.

41
 Interacción Convergente: cuando más dificultad de la tarea primaria, menos interfiere la
secundaria. Esto ocurre porque el sujeto desatiende la secundaria.
En este paradigma se mide la ejecución en ambas tareas mediante la doble tarea:
- Tarea A en solitario
- Tarea B solitario
- Tarea A y B en Ejecución conjunta ( A’ y B’)
- Intercambio Recursos- ejecución (Curvas AOC )
- Tarea conjunta con B: A’.
- La diferencia de la ejecución en B y A es la interferencia de B sobre A.
- Tarea conjunta con A: B’.
- La diferencia de la ejecución de B y A es la interferencia de A sobre B.

Posner y Boies (71) se dieron cuenta de que, al ejecutarse las tareas A y B en conjunto (ejecución
conjunta), el tiempo de reacción (TR) a veces era mucho más que el doble de A+B en solitario.
En la doble tarea es muy importante el intercambio de recursos de ejecución. Se puede medir de
manera cuantitativa con la curva operativa de la atención, que es la versión atencional de las curvas
ROP o COR (curva operativa del receptor). Se puede expresar gráficamente.
En la gráfica se observa la atención del sujeto: si presta la misma a ambas tareas o se inclina por una
de las dos.

4.2 TEORÍA DE DETECCION DE SEÑALES (SDT)


El sujeto debe decidir si lo que siente en un momento es a causa de la señal o del ruido que nunca
desaparece. Hay un criterio decisional. Ante el mismo estímulo, dos personas diferentes podrían dudar
sobre el mismo (uno lo escucha y otro no): el criterio decisional depende de muchos factores.
Esta teoría permite evaluar la sensibilidad a la señal y el nivel de riesgo.

SEÑAL
Presente Ausente
DECISIÓN Presente Acierto Falsa alarma
Ausente Omisión Rechazo correcto

En un ensayo la señal puede estar presente o ausente:


 Cuando una señal está presente y el sujeto dice que está ausente aparece una omisión (no
detecta el estímulo).

 Cuando una señal está presente y el sujeto también dice que está presente aparece un
acierto.

 Cuando una señal está ausente y el sujeto dice que está presente aparece una falsa alarma.

 Cuando una señal está ausente y el sujeto también dice que está ausente aparece un rechazo
correcto.

El porcentaje de aparición de la señal, la consecuencia, los pagos o las recompensas también modifican
el criterio de decisión; mientras que la intensidad solo afecta a la sensibilidad.

42
CONTRAPESAR LOS CRITERIOS DE DECISIÓN
Si los criterios decisionales cambian, el sujeto puede cambiar su decisión sobre la señal. La ejecución
depende de los posibles criterios de decisión anulados (unos a otros), obteniendo así la sensibilidad
pura. Las curvas AOC utilizan esto para representar el intercambio de los recursos de ejecución.

- En el eje de abscisas se expresa el porcentaje de aciertos en la tarea A y en el de ordenadas el porcentaje de


aciertos de la tarea B. Estos rendimientos son los que lleva a cabo el sujeto para cada tarea por separado. El
punto de independencia se corresponde con la esquina superior derecha, y se corresponde con la mayor
compatibilidad entre las tareas.
- A continuación, se halla el punto de intersección a partir de las líneas perpendiculares de las puntuaciones en
las tareas realizadas por separado.

- Se representan las puntuaciones de las tareas cuando se realizan conjuntamente. Se obtienen 3 puntos
expresados en la gráfica por puntos vacíos: (1) el más inferior se obtiene cuando se pide al sujeto que preste
más atención a la tarea A frente a la B; (2) el medio se obtiene cuando se le da información al sujeto de que
preste atención a ambas tareas por igual; (3) el más superior se obtiene cuando se pide al sujeto que preste
más atención a la tarea B frente a la A.

- Se unen los 3 puntos de las distintas puntuaciones por una curva – o recta - formando la AOC. La línea más fina
representa lo que, desde el punto de vista estadístico, constituiría “el mejor ajuste de los datos”.

Todo lo que queda entre la curva y el cuadrante pequeño es lo que se pierde, es el coste de la tarea. Los puntitos
dentro de la curva son las diferentes tareas a realizar. El cuadrante es la ejecución perfecta.

La interpretación se lleva a cabo de la siguiente manera: en base al grado en el que la AOC se aleje del punto de
intersección de las perpendiculares de la puntuación en las tareas aisladas. Cuanto mayor es el alejamiento, mayor
incompatibilidad o interferencia existe entre las tareas. La curva B de la gráfica muestra mayor compatibilidad
entre las tareas y mucha menor en las gráficas A y C, acentuándose en la C. La curva de la gráfica representa la
sensibilidad.

Es importante ver cuánto se separan los puntos de tarea del punto de independencia (sería el punto de ejecución
óptima en la gráfica). La separación es lo que se denomina interferencia. La diferencia entre lo que el sujeto
obtiene y el punto óptimo de la tarea es el coste.

La curva más conveniente es la que menos se separa del punto de independencia. La diferencia obtenida entre las
curvas de tareas en solitario y en conjunto es el coste que se obtiene al realizarlas de manera conjunta. Para ello
hay que hacerlas con diferentes condiciones de criterio decisional.

43
RECURSOS DE CARÁCTER GENERAL (KAHNEMAN Y MCLEOD)
Kahneman se plantea si existe una capacidad general de atención, es decir, recursos generales. Todo
el mundo tenemos capacidad de atender a estímulos, aspectos duraderos y estables que consumen
nuestros recursos en cuanto al arousal o capacidad de activación; pero también tenemos objetivos
transitorios como intenciones momentáneas. Por otro lado, también depende de la evaluación de
demandas.

Los recursos se aplican a todo tipo de tareas que exigen atención. Si los recursos son generales y
similares entre sí, habrá que saber cómo se distribuyen. Se pueden distribuir en función de 4
parámetros:
 Arousal Fisiológico: sin una activación fisiológica suficiente no se podrán obtener los recursos.
 Disposiciones Duraderas del Individuo (factores que captan la atención del sujeto): capta la
atención, aun sin querer. Ejemplo: sonidos fuertes, movimientos, intermitencias…
 Intenciones Momentáneas: objetivos, metas, intenciones momentáneas, intereses de tarea…
intentar atender a la clase para comprender el tema.

 Evaluación de las Demandas de Capacidad: depende de cómo se estime la dificultad de la


tarea. El sujeto distribuye su atención según la evaluación de las demandas que haga. Una
tarea puede ser muy difícil para un sujeto y para otro no, cada uno hace una evaluación de las
demandas diferente.

Según el modelo de Kahneman, siempre que haya una situación de doble tarea cuando ambas están
limitadas por los recursos, siempre debería de haber interferencia ya que la atención es una
capacidad general de la que necesidad las tareas. Había situaciones de doble tarea en las que la tarea
a puesta en situación con la tarea b se interfieren mutuamente, por lo que el sujeto decide que a es
controlada por recursos y b también. La b con la c, la c también está controlada por los recursos, al
poner en conjunto a y con c, en algunas situaciones nos encontramos con que no hay interferencia.

Si la a esta limitada con recursos porque interfiere con la b, y la b con la c. Según Kahneman debería
de haber interferencia, pero en ocasiones no ocurría.
Pero esto ocurre o bien porque hay múltiples procesos o porque se considera que hay capacidades
atencionales específicas

44
4.3 FACTORES QUE DETERMINAN LA EJECUCIÓN DE UNA DOBLE TAREA
Similitud de las Tareas (tener en cuenta los 4 factores de Wickens): A mayor similitud entre tareas,
mayor interferencia. Esto ocurre porque poseen mayor incompatibilidad estructural al exigir los
mismos mecanismos o estructuras. Los criterios para determinar si compiten o no por los mismos
recursos:
 Modalidad Sensorial del Input: las tareas se realizan a partir de la información sensorial que
nos lleva a través de los distintos canales. Wickens habla principalmente de la importancia de los
canales visual y auditivo. Actualmente comienza a coger fuerza la vía táctil (vibración de los
móviles p. ej.). Se produce mayor interferencia cuando dos tareas comparten modalidad
sensorial que cuando son diferentes.
 Modalidad de Respuesta: Wickens distingue entre verbal y otras respuestas de carácter no
verbal. Esto es debido a que el procesamiento cerebral para el lenguaje es específico de otras
áreas motoras. Si las tareas requieren niveles de respuestas iguales, se produce más
interferencia. Este modelo clasificatorio predice por primera vez el grado de interferencia entre
tareas, pero no cuantificarlo. Cuanto más comparten las tareas, mayor posibilidad de
interferencia en ejecución conjunta.

 Tipo de Procesamiento: hace referencia al tipo de procesamiento fundamental que exige la


tarea. Wickens distingue 3 tipos:
a) Tareas que requieren principalmente un procesamiento perceptivo
b) Procesamiento a nivel central
c) Nivel de respuesta o motriz
Se produce más incompatibilidad entre tareas cuando ambas exigen el mismo nivel de
procesamiento.
 Tipo de Código en la fase de Procesamiento: : el código puede ser numérico. Entre espacio,
verbo y número hay una conexión en el cerebro, que se activan a trabajar estas tres dimensiones.

Dificultad de las Tareas: No es lo mismo que las demandas sean individuales o por separado (aisladas),
a que sean de coordinación al realizarlas de forma conjunta. Cuanto mayor nivel de dificultad tenga
una tarea, mayor cantidad de recursos consumirá y mayores exigencias de capacidad tendrá. Cuanto
mayor es la dificultad, más fácil es que se produzca interferencia con otras tareas si no se posee
práctica suficiente.

45
▪ Demandas individuales: (dificultad de dos tareas por separado)
▪ Demandas de coordinación: (dos tareas pueden ser sencillas pero el hecho de compa-
tibilizarlas hace que se demande una dificultad de coordinación y genera dificultad en
la realización).

Nivel de Práctica: Una tarea nueva requiere el desarrollo de nuevas estrategias para su realización.
Conforme se practica una actividad, se consumen menos recursos para realizarla, aunque la tarea
sea difícil. Es necesario poner más atención en tareas de nivel de dificultad medio pero poco
practicadas, que en tareas difíciles con un gran nivel de práctica. La práctica produce automatismo,
liberando atención en la realización de tareas.
▪ Desarrollo de nuevas estrategias.
▪ Exigencia de menos recursos para la misma tarea.

5. EL PAPEL DE LA PRÁCTICA
Salomon y Stein (1896) realizaron un experimento en el que ellos mismos fueron los sujetos
experimentales: uno hacía de experimentador y el otro realizaba la tarea. La tarea consistía en leer y
escribir a la vez. Con práctica consiguieron ser capaces de leer y entender lo que leían, pero
presentaban una escritura automática (no comprendían lo que estaban escribiendo).
Este estudio lo replicaron tres autores de la psicología cognitiva: Spelke, Hirst y Neisser que se
plantearon la tarea de leer y escribir al dictado. Se realizó durante 16 semanas de entrenamiento (5h
semanales). Consiguieron que, tras 30 horas de práctica (6 semanas), la velocidad de lectura fuese
similar a la inicial sin realizar la doble tarea, sin embargo, no había conciencia semántica o de escrito.
Al llegar a la semana 16 de ejecución correcta, en ambas tareas se presentó conciencia de las mismas,
incluso conciencia semántica de lo dictado.
En 1899 Bryan y Harter se propusieron estudiar cómo evolucionó el envío y recepción de mensajes
telegráficos. Realizaron un estudio longitudinal durante 10 años. Se dio un cambio gradual del foco de
atención con la práctica (letras, palabras, frases, grupos de oraciones). Proceso de Automatización.
En la psicología cognitiva, a partir de los 70, Schneider y Shiffrin (1977 y posteriores) se dedicaron a
estudiar el papel de la práctica en tareas de búsqueda visual de información escrita en la que el sujeto
tenía que buscar un determinado elemento. Cuando tenía que buscar números entre letras, lo hacía
muy rápidamente (búsqueda paralela). El número de elementos de una situación daba igual porque
el TR era plano debido a que la búsqueda era automática, simultanea, etc. Sin embargo, cuando tenía
que buscar una letra entre otras letras, el TR dependía del número de elementos presentes en la
pantalla (la representación gráfica era una pendiente, línea inclinada) porque se daba una búsqueda
secuencial o serial. Con la práctica se conseguía pasar de buscar una letra entre otras letras
dependiendo del número de elementos a buscarla dependiendo de las condiciones de la práctica: si
eran sistemáticas y consistentes.

46
CONCLUSIONES
 La automaticidad solo es posible si la práctica se da en condiciones consistentes (siempre se
busca lo mismo).

 Si la práctica fuese variada, el número de elementos influye al principio y al final. Al final


partimos de niveles más bajos, pero hay pendiente durante todo el ejercicio porque la
variabilidad no permite la automaticidad.
 Si es práctica variada, no llega a conseguirse la automaticidad.

6. LA ATENCIÓN EN EL APRENDIZAJE DE HABILIDADES


Modelo de Johnson (1980). Este autor estudió cómo se aprenden las habilidades. El modelo propone
que, cuando se aprende una habilidad, se pasa de una fase inicial, en la que el conocimiento es
declarativo; a una fase final, en la que el sujeto guía su ejecución de manera procedimental: de saber
sobre la actividad a saber automatizarla.
Entre la fase declarativa y la fase procedimental existe una fase intermedia de compilación de
procedimientos que genera automatismos parciales:
 Fase de Conocimiento Declarativo: procesamiento controlado atencionalmente.
 Compilación de Procedimientos: procesamiento controlado y generación de automatismos
parciales. Ej.: aprender una partitura a piano: primero trabaja una mano y luego la otra y, cuando se
tienen automatizadas, se intentan mezclar ambas.

 Fase Procedimental: procesamiento automático con asistencia supervisora de procesamiento


controlado.

¿Se puede aprender a compatibilizar la ejecución conjunta de tareas?


El primero que realiza un estudio importante sobre esto es Daniel Gopher: partió del juego de The
Spatial Fortress y lo adaptó para entrenar a los pilotos de caza. Hizo dos grupos de sujetos según la
pericia del número de horas de vuelo y de ejecución. Al final tuvo un grupo control audiovisual de
táctica y estrategia en vuelo y un grupo experimental al que permitía jugar. Durante 6 meses se llevó
a cabo este entrenamiento y después los instructores del ejército volvieron a evaluar a los pilotos: los
que trabajaron con el juego obtuvieron mejores puntuaciones que los que habían visto únicamente
contenido audiovisual de tácticas y estrategias de vuelo.
Este estudio solo es generalizable a combinaciones de tareas que requieran los mismos tipos de
componentes. No se encuentra un factor general de compartición de tareas.

47
6.1 CRITERIOS DE AUTOMATICIDAD-CONTROL

Aunque existen criterios que definen la automaticidad y el control de las habilidades, los CRITERIOS
NO EMPÍRICOS pueden tener excepciones:
 Criterio de Interferencia: implica que, normalmente, cuando se hace algo de manera
automática no interfiere en otra cosa y cuando se hace algo de manera controlada sí.
▪ Automático: no interfiere porque no necesita recursos extras para realizar la tarea.
▪ Controlado: interfiere porque se requieren recursos extra.
 Criterio de Preparación: aquello que se hace de manera controlada se prepara, pero aquello
que se hace de manera automática no. Si se da la condición se da la acción (ej.: si tengo calor
abro la ventana).

 Criterio de Profundidad de Procesamiento: está relacionado con el criterio de memoria y de


consciencia.
▪ Automático: procesamiento superficial (ej.: ir a casa y no darse cuenta si estaba abierta la
farmacia).

▪ Controlado: procesamiento más elaborado, de mayor profundidad. El sujeto tiene con-


ciencia de lo que ha hecho y es más probable que se acuerde de más cosas.
 Criterio de Esfuerzo: algo que se realiza de manera controlada requiere de esfuerzo cognitivo
y físico mientras que aquello que se hace de manera automática no necesita generar esfuerzo.
Situación Especial: los estados de flujo: cómo una persona experta puede hacer que una tarea
sea motivante y que no la haga totalmente de forma automática, sino que a veces le dedique
una atención tan fluida que no sea consciente del tiempo o de los estímulos externos ( ej.:
cuando te gusta mucho hacer un trabajo y se te va el tiempo sin enterarte, teniendo la sensación de que
no has tenido que hacer un gran esfuerzo cognitivo, aunque en realidad sí lo hayas hecho).

 Criterio de Rapidez: de manera automática se hace más rápido que si se realiza de manera
controlada.
 Criterio de Conciencia: se es más consciente cuando se realiza la tarea de manera controlada.
 Criterio de Intencionalidad y Control: el automatismo no tiene intencionalidad, surge si se dan
las circunstancias apropiadas (ej.: ver a un amigo y saludarle). Si se lleva a cabo de manera
controlada si hay intencionalidad.
 Criterio de Procesamiento en Paralelo: cuando se hace algo de manera automática hay mayor
probabilidad de realizar en paralelo otra tarea; mientras que, si es de forma controlada, es más
difícil hacerlo.
 Criterio de Memoria: cuando se realiza de manera automática una tarea no se presta atención
a lo que se ha hecho, mientras que si se realiza de forma controlada sí porque se ha prestado
mayor atención.
Como todos estos criterios son objetables porque pueden tener excepciones, los autores recurrieron
a datos empíricos para ver si una tarea se realiza de manera automática o controlada.

48
CRITERIOS EMPÍRICOS:
 Sensibilidad al Número de Alternativas:
▪ Controlado: se ve afectado por el número de alternativas.
▪ Automático: no se ve afectado por el número de alternativas.
 Interferencia con Nuevos Aprendizajes:
▪ Controlado: no se ve interferido por un nuevo aprendizaje. Lo controlado no interfiere
por un nuevo aprendizaje ni se ve interferido por él. Ej.: si estoy realizando algo de manera
controlada y me piden que haga eso de otra forma no afecta.

▪ Automático: se ve interferido por un nuevo aprendizaje. El automatismo interfiere en


un nuevo aprendizaje. Si se realiza de manera automática afecta al realizarlo de otra
forma. Ej.: Si un sujeto sabe inglés y está aprendiendo francés, se hace una frase en francés y
usando 3 palabras en inglés porque el automatismo interfiere en el nuevo idioma.

 Resultados Empíricos de Automaticidad-Control


▪ Aditividad Estadística: (examen) es un resultado que implica la Aditividad Estadística
de los datos. El nivel de interferencia de una tarea secundaria sobre una primaria es
independiente del nivel de dificultad de la primaria. Siempre interfiere lo mismo. (ej.:
hablar y caminar a la vez)

▪ Interacción Divergente: la interferencia de una tarea secundaria es mayor cuanto ma-


yor es el nivel de dificultad de la primaria. Esto provoca un patrón de interacción, es
decir, las líneas tienden a juntarse. Con dificultad baja hay poca diferencia, con media
hay más diferencia y con alta mucha más diferencia.
▪ Interacción convergente: no hay medición exacta de la actividad secundaria. Es algo
anómalo que no se suele dar con frecuencia.

Ejemplo concreto de la doble tarea: conducción y móvil


¿Hablar por un móvil interfiere con la conducción? sí
¿Por qué se produce la interferencia?
 Interferencia periférica (marcar)
 Interferencia atencional (ceguera atencional)

¿Se produce mucha interferencia? Sí


 Peor que escuchar la radio o música
 Peor que conversar en el vehículo
 Peor ejecución que habiendo pasado la tasa de alcohol límite

¿Por qué los móviles causan interferencia?


Según estudios anteriores parece no haber gran interferencia de:
▪ Radio (audio input)
▪ Seguimiento simple de conversaciones (audio/verbal input, verbal output)
 El sujeto necesita implicarse activamente en la conversación
 Se producen daños incluso con el manos libres:
▪ Implica procesamiento central/cognitivo
▪ Inattenction-blindness (Neisser, Simons)

49
50
TEMA 4. LA ATENCIÓN Y EL CONTROL DE LA EJECUCIÓN

La atención tiene un papel importante en la ejecución de una acción. El control significa que el sujeto
dirige el procesamiento y la acción hacia una meta.
Se da flexibilidad en tres situaciones:
 Cuando el sujeto es capaz de modificar un plan de acción
 Cuando el sujeto es capaz de decidir una secuencia de acción entre otras
 Cuando el sujeto es capaz de detener una acción

Esto significa que hay un control cognitivo sobre la acción que se ve reflejado en:
 Reaccionar ante los cambios
 Ajustar las perturbaciones
 Remediar los errores
La atención es un tipo de control o regulador interno de la capacidad cognitiva (Posner y Friedrich,
1986) o de la ejecución de los procesos mentales (Logan, 1981) o de ambos (Simon, 1986). La atención
es un mecanismo de control de flujo y selección de información, tanto interna como externa.

La única manera de compatibilizar tareas simultáneas es automatizar alguna de las fases de las
tareas, de tal forma que se librera atención de esa tarea y pueda ser utilizada dicha atención para la
otra tarea. La atención es un proceso de selección para la tarea o proceso mental, es decir, sistema
que a partir de mecanismos excitatorios o inhibitorios controla la acción.

Existen dos niveles:


 Selectivo, Excitatorio y Facilitador: seleccionar el estímulo relevante, concentrase para hacer
un pensamiento deductivo.
 Cambiante, Inhibitorio e Interruptor: ser capaz de cambiar el set de tarea.

1. MODELOS ATENCIONALES

1.1 NORMAN Y SHALLICE 1980,1986


Es coherente con el modelo de Baddeley de la ‘working memory’, que reformulaba la memoria a
corto plazo como memoria operativa. Para Baddeley, el sistema atencional supervisor de Norman y
Shallice se acopla muy bien a la memoria que creen que tiene un ejecutivo central de working
memory.

Realizan por primera vez un modelo en el que se plantea que se puede realizar la acción de una tarea
de tres modos, dependiendo de la situación:

51
1. Totalmente automático: usamos esquemas o planes de acción como modo de control
que surgen de manera espontánea (se activan automáticamente) porque ya están
sobreaprendidos y asentados, estos son esquemas motrices. Sucede en la ejecución de
actos relativamente simples o bien aprendidos. Andar por la calle (se activa ante una
intención mental)
2. Parcialmente automático: no se tiene un esquema con tal peso y activación que por sí
solo se desencadena, sino que se tienen varios y hemos de decidir entre ellos. El
dirimidor de conflictos es un mecanismo cognitivo interno que actúa seleccionando la
acción apropiada para cada momento. A veces las diferencias entre esquemas son tan
pequeñas que el dirimidor no es capaz de tomar la decisión con garantía. Es un proceso
relativamente automático por el que algunas reglas simples sobre el peso de cada una
de ellas permiten hacer elecciones de respuesta.
3. Consciente y deliberado: el Sistema Atencional Supervisor (S.A.S) actúa añadiendo un
nivel extra de activación a los esquemas apropiados o un nivel extra de inhibición a los
inapropiados para orientar al dirimidor de conflictos ante situaciones nuevas,
cambiantes o complejas. Es el modo de control de las tareas controladas.
El SAS, por tanto, no elige los esquemas apropiados, sino el dirimidor de conflictos. El SAS
funciona en situaciones donde el dirimidor necesita orientación para sopesar cuál es la
respuesta más adecuada. Esta orientación se la ofrece el SAS activando las apropiadas e
inhibiendo las inapropiadas.
Un niño cuando está aprendiendo a andar, piensa cómo debe poner el pie para comenzar
a andar sin caerse.

SISTEMA ATENCIONAL SUPERVISOR


El sistema atencional supervisor actúa añadiendo un nivel extra de activación a los esquemas
apropiados o un nivel extra de inhibición a los inapropiados para orientar al dirimidor de conflictos
ante situaciones nuevas, cambiantes o complejas.
Sistema Perceptivo → Datos → Esquemas de Acción (SAS / dirimidor de conflictos) → Sistema Efector

1.2 REASON 1979


Es el primero que estudia los lapsus de acción y defendió que las personas pueden actuar de dos maneras:
 Modo de Control de Bucle Cerrado: la atención controla, momento a momento, la acción.
Fases Iniciales en la adquisición de una habilidad. Se da un feedback continuo al estar
continuamente comprobando la acción, por eso se llama “bucle cerrado”.
 Modo de Control de Bucle Abierto: Programas motores o secuencias preprogramadas de
acción, al margen de la atención. Es “bucle abierto” porque, al no ser necesario atender, no
hay feedback. Las secuencias de acción aprendidas hacen que el sujeto realice la acción de
manera mecánica (abrir la puerta).
Los fallos o actos fallidos se dan cuando el sujeto no es capaz de cambiar de un control de bucle abierto
a uno de bucle cerrado cuando es necesario (andar y que haya un escalón).
Esto se ha estudiado mucho en pilotos de aviación, en los que se produce el efecto de complacencia.
Este fenómeno tiene lugar cuando se pasa de un vuelo con el piloto automático activado a un vuelo
con control manual.
52
1.3 BAARS 1983
Este autor defendió que la conciencia es un espacio de trabajo global al que intentan acceder distintos
procesadores que compiten por ello. La atención es el asignador de prioridad de acceso de la
información a la conciencia.
Hay que distinguir muy bien entre: modos de procesamiento vs. modos de control

El modo de procesamiento puede ser automático y controlado en cuanto al control de aprendizaje


del esquema superaprendido de acción. Por tanto, igual que se aprende dicho esquema, se puede
desaprender. El efecto observable es que no se pueden controlar los automatismos, pero son hábitos,
y como hábitos, se pueden desaprender, con mecanismos de extinción; tbn se pueden aprender otros
que sean incompatibles con lo que ya teníamos y sean más adaptativos. Esto lleva mucho tiempo.

1.4 LOGAN 1980


Propone que el control es la capacidad del sujeto para inhibir el curso de pensamiento o acción. Las
respuestas pueden ser de dos formas:
 Las respuestas que pueden inhibirse son controladas.
 Las respuestas que no pueden inhibirse están fuera de control.

PARADIGMA STOP SIGNAL


Probabilidad de responder a una tarea primaria cuando se presente la señal de parar (modelo de
carrera de caballos). La mejor manera de saber si una persona controla una tarea es hacer que inhiba
la respuesta.
Logan plantea como se da el proceso de adquisición de habilidades: automaticidad → adquisición de
habilidades.
Utiliza la “metáfora de la carrera de caballos”. Se dan procesos automáticos y controlados, pero uno
siempre va por delante del otro. La señal de stop inicia una carrera entre la respuesta automática y
su inhibición. Siguiendo con este símil, el paradigma de señal de Stop nos permite ver quien llega
antes a la meta: la realización o la inhibición de la respuesta.
La práctica de la acción permite almacenar más información sobre el estímulo que se somete a dicha
práctica y sobre la acción correspondiente (a nivel procedimental: se recuerda cómo hacer las cosas).
Los esquemas condicionales de acción: si X entonces acción1 (si hay un incendio, se debe tener
sobreaprendida la forma de salir).

AUTOMATICIDAD-ADQUISICIÓN DE HABILIDADES (Logan, 1988)


Cómo pasar de una ejecución controlada totalmente a una automatizada.
Al hacer práctica (consistente), nos permite almacenar en memoria procedimental más información
sobre el estímulo que se somete a dicha práctica sobre la acción adecuada.
Se dan esquemas condicionales de acción: si se da X, se da acción 1. Cada vez que se repite el
estímulo, la recuperación de información relevante se agiliza. La automatización es la recuperación
cada vez más rápida de la información mnemónica (procedimental) de la acción. Si no hay práctica,
hemos de pensar y aplicar una serie de reglas, siendo más costosa la ejecución. En los modelos de
adquisición de habilidades se pasa del conocimiento declarativo al procedimental. Con estrés alto
necesitamos descansar en automatismos.

53
2. LAPSOS DE ACCIÓN
El primero en estudiarlos fue Reason. Pidió a 35 alumnos que anotaran los errores cometidos durante
dos semanas, además del antecedente y el consecuente (cuándo lo cometieron y las consecuencias
obtenidas). Descubre cinco tipos de errores con cinco causas diferentes:
1. Fallos de Discriminación: errores de clasificación por confusión entre los atributos
perceptivos, funcionales, espaciales o temporales de los objetos:
▪ Perceptivos: fallo a la hora de discriminar la percepción del objeto. Poner crema de
afeitar en el cepillo de dientes. Confundir sal y azúcar.

▪ Funcionales: fallo a la hora de discriminar la función del objeto. Coger la fregona en lugar
de la escoba. Dejar fuera las gafas de sol y dentro la loción bronceadora.

▪ Espaciales: fallo a la hora de discriminar el espacio que ocupa el objeto. Coger un


abrelatas en lugar de las tijeras del mismo cajón. Coger cuchara en vez de tenedores.

▪ Temporales: fallo a la hora de discriminar los parámetros temporales. Levantarse


temprano para una clase que han pospuesto.

LOS AUTOMATISMOS SUELEN DEJAR RESIDUOS.

2. Fallos de Ensamblaje de Programas: trasposición de elementos de programas.


▪ Inversión de Elementos de un Mismo Programa: tirar a la basura el caramelo en lugar del
envoltorio.

▪ Confusión entre Dos Programas Activados: descolgar el teléfono cuando llaman y abrir la
puerta cuando llaman: decir “entre” al descolgar.

▪ Confusión entre un Programa en Marcha y Uno Desactivado: alguien pide un cigarro del
paquete que acaba de guardar el sujeto y saca el monedero en su lugar (más frecuente).

3. Fallos de Comprobación: atención supervisora. Fallos al verificar la marcha de una secuencia


de acción en puntos clave. Meterse en la bañera vestido.

4. Fallos de Subrutinas: a nivel de acciones que componen una rutina.


▪ Injerencias: intentar quitarse las gafas sin llevarlas puestas.
▪ Omisiones: ir a ponerse el abrigo para salir. Suena el teléfono y se contesta. Salir sin el abrigo.
▪ Ordenación Incorrecta: poner en marcha el coche y quitar el freno de mano sin haber
arrancado.

5. Fallos de Almacenamiento: por olvido o recuerdo incorrecto de planes y acciones. Ir a coger


algo de la cocina y olvidarse de qué.

Según Reason, los lapsos de acción se producen durante la ejecución de alguna tarea automatizada, en
contextosfamiliares y cuando la atención es distraída.
Los lapsos se producen cuando el sujeto no es capaz de cambiar de un modo de control de bucle abierto (sin
control de la atención) a un control de bucle cerrado (con feedback atencional) cuando es preciso.

54
3. MEDIDAS DEL CONTROL DE LA ATENCIÓN Y EJECUCIÓN
Tareas de Switching: tareas de atención alternante. Es una prueba de cómo se puede cambiar el set
atencional de manera voluntaria y consciente. Un ejemplo es una tarea de sumas y restas: se van
diciendo números y se van sumando hasta que llega una señal que indica el cambio del criterio
relevante. Exigen un cambio que conlleva un gasto atencional, porque el sujeto debe realizar una
tarea en virtud de un criterio, después el sujeto debe cambiar ese criterio.
Por ejemplo, si la profesora te lee números, y cuando dice un determinado número debes reaccionar.
Si haces esta tarea durante un largo periodo de tiempo, cuando cambian el número al que tienes
que reaccionar, al principio cuesta mucho.
Tareas de Inhibición de Automatismo (Stroop)
Tareas de Señal de Parar

55
56
TEMA 5. ATENCIÓN SOSTENIDA
1. CONCEPTO
La atención sostenida es la capacidad para mantener la atención ante estímulos durante largos
periodos de tiempo (mínimo 30 minutos). Si es menos, se trata de atención selectiva.
Es importante en tareas de Inspección industrial, militar, médica y otro tipo de actividades cotidianas.
En las tareas de Vigilancia las respuestas de los sujetos no influyen en la aparición de señales críticas.
Estas últimas son poco frecuentes y aparecen sin regularidad temporal, lo que provoca un
decremento en la vigilancia o función de decremento en la detección con el paso del tiempo. Si
detecta menos, es que tiene más omisiones y, por consecuencia, más errores.
Con el paso del tiempo siempre se observa un decremento.

2. FUNCIÓN DE DECREMENTO
Se da un declive progresivo de la ejecución con el tiempo. Hay un gran declive de los 30 a los 60
minutos. En general, surge a partir de los 25/30 minutos. La mitad del declive total se puede empezar
a apreciar a los 15 minutos.
Experimento Prueba: es una función lineal porque se mide la práctica por medio de los errores:
Prueba del reloj de Mackworth (1950). Tarea: detectar un salto doble de las agujas de un reloj sin
numeración. De un sector al siguiente había 7 milímetros, un salto normal al que no tenían que
reaccionar. Cuando el salto era de 1,4 cm (doble) sí debían reaccionar. Se obtuvo la función de
decremento.

Se dieron cuenta de que había varios factores influyentes: el factor base era el nivel de Arousal del
sujeto (activación fisiológica). El mantenimiento de la alerta a lo largo del tiempo (vigilancia) está
relacionada con el arousal. Para poder tener un estado de vigilancia es necesario determinado nivel
de activación.
Según Posner, hay 3 redes:
1. Posterior: relacionado con la orientación y atención → parietal frontal.
2. Anterior: control → prefrontal
3. Alerta/atención sostenida: cortico-subcortical → ganglios basales.

3. ATENCIÓN Y AROUSAL
Según Hebb (descubrió la relación entre arousal y atención) la entrada sensorial tiene dos funciones:
 Transmitir información sobre el medio.
 Tonificar el cerebro con una actividad de fondo para favorecer la transmisión cortical a través
de un aumento de vigilancia. Cualquier entrada sensorial aumenta el arousal y, en
consecuencia, aumenta la atención. Así, la transmisión de la información de la Formación
Reticular a la corteza aumenta el estado de vigilia.
Las señales sensoriales llegan a la corteza por dos vías:
 Vías específicas hacia las áreas corticales sensoriales
 Formación Reticular Ascendente (SAR). Propagación general de la información hacia el córtex.
Aumenta el estado de vigilia.

57
El SAR lanza impulsos nerviosos sobre un amplio área de la corteza cerebral para producir un nivel de
excitación general o vigilia.
▪ El funcionamiento óptimo del SAR exige información estimular variada, no puede ser
monótona.
▪ Si la información baja a un nivel crítico, se da una reduce la vigilia. Por este motivo, en
tareas monótonas (atención sostenida), la vigilancia se deteriora al bajar la alerta.
▪ Índices electrofisiológicos de activación: actividad alfa del EEG y conductancia eléctrica
de la piel. Ambas disminuyen durante el sueño y en tareas de vigilancia.
La vigilancia mejora con las drogas estimulantes (bebidas estimulantes) y empeora con los depresores
del SN (calmantes).
Hay también un procedimiento nuevo hecho por espectrografía de infrarrojos (fNIRS), pero hasta la
fecha el método más común para medirlo es el EEG.
De antemano no se puede saber en qué punto de activación está el sujeto en concreto, dependerá si
se encuentra haciendo una tarea o en manipulación experimental. Mientras se da la ejecución, sí se
puede medir el nivel de activación fisiológica.
 Alerta Tónica: nivel gradual de activación (Arousal). Es importante para la atención sostenida.
Se dan cambios largos y permanentes.
 Alerta Fásica: cambios intensos y rápidos (situaciones de peligro). Se dan cambios cortos y
transitorios.

3.1 LEY DE YERKES DODSON


La relación entre eficacia de la detección y la activación fisiológica forma una U invertida (Yerkes-
Dodson). Los niveles bajos y altos de activación no ayudan a mantener la atención, de hecho, la
dificultan. Son los niveles intermedios propios de cada sujeto los que ayudan a desempeñar una
ejecución óptima.

La activación ha de llegar a un determinado punto para que la vigilancia sea óptima, si aumenta esta,
la activación se desorganiza.

Ej.: si se tiene ansiedad rasgo elevada aumenta el arousal y el estrés, por lo que se da una mala ejecución.

Curva de Yerkes-Dodson
 Con una activación nula no hay ejecución.
 Cuando la persona se despierta, comienza a aumentar la activación y a ejecutar acciones.
 Conforme aumenta la activación se llega a un nivel óptimo.
 Cuando se pasa del arousal requerido puede llegar a ser perjudicial.

Esto se puede ver alterado por emociones positivas: interés, motivación… Esto genera una activación
creciente.

58
4. FACTORES DETERMINANTES Y PSICOFÍSICA DE LA ATENCIÓN SOSTENIDA (11)
Modalidad Sensorial de los Estímulos
 Señales Auditivas: mejor mantenimiento de la atención que con las visuales. Suele haber
mayor información visual que auditiva. Ésta última es más secuencial. Si se iguala
experimentalmente la cantidad de ambos tipos de información, no se dan diferencias en la
atención sostenida.
 Si se iguala el tipo de tarea lo máximo posible, los resultados tienden a equipararse.
Amplitud y Duración de las Señales Críticas
 A mayor intensidad, mejor mantenimiento. Cuanto más intensa y duradera, más fácil de
detectar. Cuanto más se separe del ruido de fondo, más fácil mantener la atención.
 A menor intensidad, más errores de omisión. Se da una menor detección.
 A mayor duración, mejor mantenimiento. Cuanto más duradero, más fácil de detectar.
Ritmo de Acontecimientos de Fondo (eventos neutros):
El acontecimiento de fondo es el funcionamiento normal del sistema. A menor ritmo de fondo, mejor
mantenimiento: si es muy rápido, podemos perdernos; sin embargo, si es más lento, capta mayor la
atención haciendo que no se pierda.

Ritmo de Presentación de la Señal (eventos críticos):


• Ritmo de estimulación o razón de evento. A mayor densidad o rapidez del evento crítico (>24 veces
por minuto en tareas de laboratorio), mejor rendimiento y mantenimiento de la atención. Por eso
comparábamos los valores en la práctica que hicimos relacionada con esto (de tasa alta a tasa baja y
viceversa). Cuando más señales halla, más tenemos que reaccionar, y mayor activación.
A mayor densidad de funciones críticas, mayor rendimiento y mantenimiento de la atención.

Incertidumbre Temporal
El ritmo de presentación de la señal crítica determina el grado de incertidumbre temporal que el
observador tiene sobre la aparición de la señal (no sabemos cuándo va a aparecer el estímulo, por lo
que no sabemos cuándo tenemos que reaccionar). Cuanto más regulares son los intervalos de
presentación de las señales críticas, mayor es el número de señales detectadas y mayor la velocidad a
la que se detectan, se mantienen mejor la atención.

Incertidumbre Espacial
No sabemos dónde van a ocurrir los eventos críticos: cuando se sabe la zona donde es más probable
que aparezcan los estímulos (mayor certidumbre), es mejor el mantenimiento de la atención ya que
prestamos atención a dicha zona y la probabilidad de detección es mayor.

Discriminación Señal-Ruido
Grado de discrepancia existente entre las señales críticas y los ensayos no críticos. Si hay mucha
discriminación, es decir, diferencia entre el ruido y la señal, es más fácil detectar el estímulo, aunque
pase el tiempo, pero si no hay mucha diferencia, es más difícil discriminar entre ambos y demanda
una mayor cantidad de recursos de atención. También cuanto más separados físicamente estén ruido
y señal habrá mejor rendimiento.

59
 Tipo de Discriminación Señal-Ruido
▪ Simultánea, sin decremento. Generalmente no se produce el decremento porque se
ve/oye al mismo tiempo. Después pasa a ser una secuencia sucesiva.
▪ Sucesiva, con decremento. en una comparación secuencial, el paso del tiempo afecta
negativamente dando una función de decremento, ya que hay que comparar un estímulo
con otro previamente expuesto, por lo que la comparación se hace “mentalmente”
acordándonos del que ya apareció.

Complejidad
Mayor complejidad más difícil el mantenimiento de la atención porque produce bajo arousal. Cuando
algo tiene una complejidad media, es la forma más fácil para mantener la atención sostenida. Al ser
intermedio y bajo, sirve para aumentar la activación. La complejidad tiene que tener índices
cuantitativos.
La complejidad depende de la carga de la señal (nº de estímulos y respuestas) y de canales múltiples
(nº de modalidades sensoriales implicadas en la realización de la tarea). Si ambos canales se
sincronizan, ayuda a mantener la atención. A mayor carga de la señal o mayor carga de canales
múltiples, mayor complejidad.
Conocimiento Resultado
Conocer los resultados (errores y aciertos) durante el transcurso de la tarea es positivo porque
aporta información al sujeto, aun en casos en los que al sujeto no se le informa totalmente. Es un
factor positivo para el mantenimiento de la atención y mejora del rendimiento. El ofrecer
conocimiento al sujeto de lo que está haciendo incrementa su motivación de logro y añade una
motivación extra para mantener la atención en la tarea, aun cuando la información es falsa. Hace que
se establezca un objetivo de mejorar los resultados previos, haciendo que aumente la activación o
energía interna.
Descanso
Siempre afecta positivamente a la ejecución del sujeto porque permite recuperar el arousal. Elimina o
reduce la fatiga y favorece la recuperación. El descanso puede ser de relax o que implique una
activación, siendo preferible el que conlleva una actividad física para restaurar nuestro arousal
porque manda señales al S.A.R. El descanso inactivo o activo será mejor para la recuperación del
sujeto dependiendo de la tarea. Ej.: entre clases los alumnos se recuperan más saliendo al pasillo
(activo)//después de correr el descanso más efectivo será tirarse en la cama (inactivo).

Otros Factores:
o Sueño: perjudica el mantenimiento de la atención, produce una desactivación que provoca un
deterioro general en la ejecución de las tareas de vigilancia. El sueño y el descanso son factores
que se compensan porque interaccionan entre ellos.

o Ruido: sonido que no tiene un patrón rítmico y ordenado (estimulación perturbadora). El ruido
puede ser de diferentes intensidades:
▪ Intensidad moderada, continuo y uniforme: a veces puede ayudar porque es un
incremento de activación, favoreciendo la concentración y rendimiento.
▪ Intensidad alta, discontinuo e impredecible: esto es lo que sería un ruido como tal, lo que
haría que nos impida atender porque es distorsionante (deterioro en el rendimiento).
o Estrés: una ligera ansiedad puede aumentar la activación, pero si hay un aumento de activación
del estrés, puede llegar a desajustar toda la ejecución aumentando en niveles muy altos el
arousal y empeorar la atención.

60
Todos estos factores interactúan en el rendimiento, pero cada sujeto parte de una activación personal, propia
de cada uno.

5. RITMOS DE EFICIENCIA ATENCIONAL

5.1 RELACIONADO CON RITMOS CIRCADIANOS


Blake
Fue el primero en estudiar este tema y llevó a cabo investigaciones con un grupo de marineros del
ejército. Realizó investigaciones sobre:
 Tareas de TR de 8 alternativas
 Tareas de Vigilancia Auditiva
 Clasificación de Tarjetas
 Supresión de Letras
 Operaciones Aritméticas
En su investigación Blake pidió a diferentes sujetos que realizasen las tareas durante más de 30
minutos a diferentes horas del día, en diferentes días. Encontró que se daba una mejora a lo largo del
día y, en concreto, los sujetos mejoraban la activación durante la mañana y a primeras horas de la
tarde a partir de las 4. Había una tendencia similar en el aumento de la temperatura corporal.

Thayer (1957)
La activación alcanza su pico a las 12:30. La activación autoinformada alcanza el máximo a última hora
de la mañana y primeras horas de la tarde.
Klein y cols
Lo relacionan con transmisores. La mayor secreción de adrenalina ocurre al mediodía.
La realización óptima de la mayor parte de tareas se logra hacia el mediodía. Solo las tareas de simple
exploración visual alcanzan su nivel máximo a primeas horas de la tarde.
La selección atencional es mayor en presencia de una activación intensa (última hora de la mañana,
primeras de la tarde). En estudios de vigilancia se comprueba que la eficacia tiende a ser mejor por la
mañana para los introvertidos y por la tarde para los extravertidos:
 Los sujetos introvertidos (activación temprana): muestran mejor ejecución de 8 a 12 de la ma-
ñana. Los niveles óptimos de activación se dan por la mañana. Durante la tarde presentan una
peor ejecución porque se produce una sobre activación o supra-activación.
 Los sujetos extravertidos (activación tardía): los sujetos ejecutan mejor las tareas a últimas
horas de la tarde y peor por las mañanas. Por la mañana presentan una línea base de menor
activación (subóptima) y necesitan ir acumulándola a lo largo del día para lograr niveles ópti-
mos de activación (óptima).

Relaciones entre la Impulsividad y Ansiedad del Sujeto


Ciertos niveles moderados de ansiedad mejoran el rendimiento, pero cuando son excesivos, se
produce un decaimiento del mismo. Se da una relación entre la activación subóptima o supra-óptima
y las demandas de tarea. Es necesario considerar otros factores que interactúan en el arousal y en el
desempeño del sujeto, por ejemplo, el conocimiento de los resultados o la activación por sustancias
exógenas. Ej: cafeína y sueño.
61
La conclusión a la que se ha llegado es que la realización de tareas cognitivas requiere dos procesos:
Atención y Working Memory.
 Atención: mejores niveles de atención a las 12 del mediodía y durante las primeras horas de
la tarde.
 Working Memory: funcionamiento mejor durante las primeras horas de la mañana (de 9 a 11
de la mañana)
 Memoria a largo Plazo: mejor durante las últimas horas de la tarde.

6. TEORÍAS DE ATENCIÓN SOSTENIDA


Ninguna puede explicarla por sí sola puesto que cada una se centra en un aspecto diferente de la AS.

6.1. TEORÍA DE LA EXPECTATIVA BAKER, 1963


 Parte de que la disposición para detectar una señal se relaciona directamente con el nivel de
expectativa que el sujeto tiene de que aparezca la señal critica. Así la función de decremento
se produce por un deterioro progresivo de la capacidad del individuo que vigila para predecir
con precisión el momento de aparición de las señales.
 El sujeto hace un cálculo del ritmo de aparición de la señal y crea expectativas sobre el tiempo
aproximado de su aparición. La retroalimentación aumenta la precisión de las expectativas
de quien observa. Por ello, ayuda a la disminución del decremento de la ejecución.
 Ciertos estudios evidencian que, al aumentar la densidad de las señales críticas y su
regularidad temporal, mejora la detección de señales.
 Con una fase de entrenamiento en la que se produce una probabilidad alta de aparición de la
señal, los sujetos desempeñan mejor la tarea cuando realizan la fase posterior de prueba que
los que en un principio experimentaron una probabilidad baja de aparición de la señal.
 No es una explicación satisfactoria de todos los fenómenos de vigilancia ya que ciertos
autores indican que la formación de expectativas no tiene una importancia fundamental para
desempeñar tareas de atención sostenida:
▪ La retroalimentación funciona a través de la motivación, no de la expectativa.
▪ Una buena predicción temporal no correlaciona con una buena ejecución en tareas de
vigilancia.
▪ Sólo se emplea la información almacenada sobre la secuencia temporal de las señales
críticas si la tarea es difícil y no se dispone de otras indicaciones.

6.2. HIPÓTESIS DE LA TASA DE OBSERVACIÓN PROVOCADA JERISON, 1970


 Actos de Atención Unitarios: parte del supuesto de que quien vigila decide continuamente
sobre la emisión o no de respuestas de observación a los estímulos que vigila.
 Fallos de Detección: cuando el sujeto no emite respuestas de observación o éstas son
imperfectas.
 Decremento en la Vigilancia: por el deterioro de la frecuencia y calidad de las
observaciones con el paso del tiempo. Además se produce un incremento progresivo del
coste de la observación debido a la fatiga, inhibición, motivación escasa etc.
 Hay un incremento progresivo del coste de la observación (fatiga, inhibición, motivación
escasa).

62
 Falta de Comprobación Empírica de la Hipótesis: en un principio hubo escasa
comprobación empírica de esta hipótesis, pero en la actualidad se ha comprobado
utilizando medidas oculares en tareas de conducción, pilotaje y sistemas de video
vigilancia. Comenzó a comprobarse a partir de los 90' mediante VFOV -eye trakers a través
de índices fisiológicos.

6.3. TEORÍA DE LA DETECCIÓN DE SEÑALES Green y Swets, 1966


La TDS surge en los años 60 en el contexto de la psicofísica, una disciplina fundamentalmente
interesada en el estudio de la sensación y, más específicamente, de la cuantificación sensorial (qué
cambios de sensación se producen cuando el estímulo es sometido a variaciones de intensidad ). Para la TDS,
una tarea típica de detección de señales consiste en detectar una señal que se presenta sobre un fondo
de ruido. Cuando se transmite la señal, ésta no reemplaza al ruido, sino que añade alguna energía más
al tope de ruido de fondo. Es decir, el ruido está presente siempre. La tarea del sujeto es decidir si la
sensación X que tiene en un determinado momento es consecuencia de percibir la señal sobre el
fondo de ruido (SR), o es tan sólo el resultado de percibir ruido de fondo (R).
Una de las aportaciones fundamentales de la TDS ha sido evaluar la respuesta del sujeto de una forma
mucho más completa a como se había hecho hasta entonces. Por un lado, porque discrimina entre dos
tipos de aciertos –detecciones y rechazos correctos- y dos tipos de errores –falsas alarmas y fallos-;
pero principalmente por permitir obtener dos parámetros de respuesta que son:
 La sensibilidad o habilidad para percibir estímulos sensoriales (d’) conocida también como
detectabilidad: Capacidad que tiene el sujeto para distinguir entre señales y no señales.
 El criterio de decisión o nivel de riesgo que el sujeto está dispuesto a asumir cuando se producen
situaciones de incertidumbre (b). Dichos procesos de decisión actúan cuando el sujeto siente
incertidumbre sobre si realmente la señal está presente. Algunas variables que influyen en que el
sujeto sea más o menos arriesgado a la hora de decidir son las siguientes:
▪ Las expectativas que se tienen de que aparezca la señal a priori.
▪ El sistema de motivación que el propio experimentador puede provocar mediante
un sistema de incentivos (ganancias o pérdidas) y los costes y valores asociados
con la detección.
▪ Las instrucciones para adoptar un criterio más o menos arriesgado.
▪ Los observadores tienen un criterio de decisión más bajo cuando las señales son
más probables.
▪ Un sujeto puede tener muy buena capacidad sensorial y, en los pocos ensayos en
los que tenga incertidumbre puede ser, o bien arriesgado, o bien conservador en
su toma de decisión.
 La TDS observa como en casi todos los estudios sobre tareas de vigilancia la función de
decremento refleja un cambio hacia un criterio de decisión de respuesta más conservador, y
no una disminución de la vigilancia de las señales como proponen otras teorías.

63
▪ Durante la vigilancia d' permanece estable. Excepciones: Hay tipos de tareas de
vigilancia en las que se dan cambios en la sensibilidad perceptiva: Se da una
disminución de d' en tareas muy sucesivas. Tareas en que el ritmo de acontecimientos es
elevado: exigen una comparación rápida de los estímulos presentados de modo consecutivo
para establecer su identidad.

▪ B aumenta con el tiempo, lo que conlleva menor número de aciertos y menor número
de falsas alarmas.

6.4. TEORÍA DE LA HABITUACIÓN MACKWORTH, 1969


 Según esta teoría, las tareas de vigilancia producen un efecto de habituación en el sujeto como
consecuencia de la estimulación repetitiva de los acontecimientos de fondo. Se define la
habituación como:
▪ Disminución de la sensibilidad por reiteración de la estimulación.
▪ Proceso activo de inhibición.
Desaparece con cambios en el estímulo (temporales, cuantitativos...).
 Este efecto de habituación se manifiesta en un deterioro en la capacidad del observador para
discriminar las señales críticas: las tareas de vigilancia implican estimulación repetitiva de
acontecimientos y por tanto habituación a los estímulos. Por ello, se da la función de
decremento: Con el paso del tiempo es más difícil prestar atención.
 La habituación es más rápida con ritmos más rápidos de aparición de la señal y con señales
regulares; aunque se da una peor ejecución.
▪ Esta hipótesis es difícil de comprobar empíricamente: ¿respuesta galvánica de la piel?
▪ Resultados inconsistentes:

• Presentación de señales de modo regular e irregular.


• Modificación del ritmo de acontecimientos de fondo (rápido-lento-rápido).
Autor clave: Parasuraman

6.5 CONSIDERACIONES FINALES


Cada teoría ha podido justificar ciertas condiciones de las tareas de vigilancia, pero otras no. Por este
motivo se considera que cada una de las cuatro teorías expuestas permite explicar una parte de la
función de decremento.

64
TEMA 6. META-ATENCIÓN, DESARROLLO DE LAS CAPACIDADES
ATENCIONALES Y DISFUNCIONES DE LA ATENCIÓN
1. FASES DE LA ATENCIÓN Y SUS DETERMINANTES

Suelen distinguirse tres fases elementales de la atención: (1) captación de la atención, (2)
mantenimiento de la atención y (3) cese de la atención.
A continuación, analizaremos cada una de ellas:
1. Captación de la Atención: Es la conducta de orientación estimular o reflejo de orientación
estudiado por Sokolov. Consiste en girar los ojos y después la cabeza hacia el estímulo junto
con el cese de todas las demás formas irrelevantes de actividad. Ejemplo prototípico: la presen-
tación de un nuevo estímulo. Los bebés evalúan la novedad del estímulo, lo procesan forma preliminar
y deciden si seguirán prestando atención con posteriores recursos mentales. Esta captación inicial
está determinada por las características de los estímulos (atención involuntaria).
Características que atraen la atención:
a) Modalidad visual: Color, movimiento, apariciones-desapariciones bruscas, contraste
y brillo desde los primeros meses de vida.
b) Modalidad auditiva: Atrae la atención de los bebés de manera superior a la visual.
Desde el nacimiento giran en dirección de los objetos que suenan y muestran prefe-
rencia por los sonidos agudos (preferencia por voces femeninas y de la madre) frente
a los graves. A los 4-5 meses intentan, además, alcanzarlos motrizmente y percepti-
vamente.
2. Mantenimiento de la Atención: Se focaliza la atención durante un cierto tiempo y si es un
tiempo considerable se habla de atención sostenida (entre 3 y 20 segundos). Se produce unos
cuatro o cinco segundos después de la fijación visual. Dependerá en gran medida del nivel de
novedad que le aporte el estímulo (grado de discrepancia), con una preferencia creciente por
la complejidad creciente según se evoluciona. Un ejemplo: primero el niño prefiere una cara de
muñeca porque es menos complejo que la cara de la madre, que posteriormente preferirá. Mayor con-
trol del sujeto, aunque influyen también las características estimulares (atención voluntaria) y requiere
procesamiento cognitivo controlado. Se produce una desaceleración de la tasa cardiaca junto con una
inhibición de movimientos.

3. Cese de la Atención: El niño se ha habituado y deja de mirar al estímulo o sólo mira de forma
esporádica y de mínima duración. No se volverá a iniciar un nuevo reflejo de orientación a
menos que aparezca estimulación nueva. La duración del cese atencional y vuelta a los pará-
metros normales es de 6 segundos aproximadamente. Conforme aumenta la edad, se re-
quiere cada vez menos tiempo de exposición para la habituación.
Las nuevas direcciones de investigación distinguen entre fase de captación –aparición del estímulo y
el momento en que empieza la fijación- y fase de mantenimiento –duración temporal de la fijación-.
Además se estudia el efecto de los distractores y la atención ligada a la fijación ocular. Dentro del
ámbito de la fijación ocular se ha distinguido entre atención abierta (donde fijamos los ojos) y
encubierta (independiente de los movimientos oculares).

65
También ha habido interés por estudiar el fenómeno de la inhibición de retorno, ligada a la atención
encubierta porque descansa sobre mecanismos atencionales y no oculares, y que parece desarrollarse
en el periodo de los 3 a los 6 meses con la mejora de los movimientos sacádicos.
A lo largo del desarrollo evolutivo, el niño va adquiriendo la posibilidad de que su atención sea captada
con carácter voluntario y controlado en virtud de sus intereses.
▪ En los dos primeros años → Grado de discrepancia y características de los estímulos.
▪ A partir de los dos o tres años → Control atencional.

2. SELECTIVIDAD ATENCIONAL: MECANISMOS Y TAREAS

La atención implica selectividad. Selectividad en cuanto a estímulos o en cuanto a procesos


psicológicos a realizar. La selectividad controlada por el propio sujeto es una ganancia evolutiva de la
edad e implica al menos dos mecanismos:
a) Mecanismo excitatorio: Activación de aquello a seleccionar
b) Mecanismo inhibitorio: Inhibición de lo que es distractor

Se ha comprobado de manera reiterativa en diferentes tareas, con muy diferentes requisitos


cognitivos, que la atención favorece la selectividad de lo relevante y requiere la superación de la
distracción. Hay que tener en cuenta el tipo de tarea utilizado para medir la selectividad atencional,
sobre todo en cuanto a edades a las que se alcanza. Pese a esto, hay consenso de que a menor edad
suele encontrarse una menor resistencia a la distracción en la ejecución de casi todo tipo de tareas.
Así, por ejemplo, en la tarea de Stroop, el tiempo en las respuestas y el número de errores tienen a
disminuir conforme aumenta la edad, se estabiliza en la edad adulta, volviendo a aumentar en la vejez.
Existe controversia en relación a si la distracción por lo irrelevante se debe a un ineficaz filtrado en la
fase de codificación de los niños o a una ineficiente inhibición en la fase de selección de respuesta.
También se ha discutido si las diferencias en el efecto de lo irrelevante a diferentes edades pueden
deberse a la necesidad de mecanismos diferentes según la tarea: o bien de habituación o de inhibición
activa de lo irrelevante. Los niños podrían usar más tempranamente mecanismos de habituación (dejar
de atender a algo reiteradamente presentado) que los de inhibición activa.

TAREAS MÁS UTILIZADAS EN ATENCIÓN SELECTIVA:


▪ Orientación visual abierta/encubierta y paradigma de búsqueda visual: tarea de juicios igual-
diferente → Antes de los cinco años la atención de los niños es capturada por los aspectos
salientes.
▪ Tareas del paradigma de escucha dicótica: selección de información auditiva relevante vs. irre-
levante y estudios sobre el cambio o movilidad de la atención
▪ Aprendizaje central-incidental: A mayor edad se recuerda mejor lo central por una mejor se-
lectividad, el recuerdo de lo incidental muestra un ligero incremento hasta los once o doce
años para después declinar.
▪ Clasificación rápida

66
3. DIVISIÓN DE LA ATENCIÓN Y CAMBIO EVOLUTIVO

Apenas existe investigación con niños sobre la capacidad de asignar atención simultáneamente. Los
estudios realizados sí muestran una mejora evolutiva en la habilidad de prestar atención a varios
aspectos a la vez o de compartir atención en la ejecución simultánea de tareas (doble tarea). Se ha
descubierto que niños de trece años desarrollan estrategias eficientes de control para atender
eficazmente a dos tareas visuales. Sin embargo los niños de siete años no eran capaces.

Pero, pese a esto, es muy difícil establecer conclusiones ya que el nivel de ejecución del que parten los
niños de diferentes edades y adultos en la realización de una determinada tarea es diferente. Así, la
supuesta mejora en doble tarea podría interaccionar con una mejora en la ejecución de la misma por
la creciente competencia cognitiva.

Se comprobó que si se igualan los niveles de ejecución con práctica en niños de diferentes edades, los
datos no son tan claros a favor de los niños más mayores. Por tanto, los resultados son muy
contradictorios y ha de seguir profundizándose en este estudio.

4. ATENCIÓN SOSTENIDA Y CAMBIO EVOLUTIVO

Se habla de atención sostenida cuando la atención ha de mantenerse focalizada durante largos


periodos de tiempo sin interrupción. Tradicionalmente se ha estudiado en tareas muy sencillas, del
tipo de las de detectar estímulos a lo largo de un periodo de tiempo muy largo. La ejecución se evalúa
en términos de:
1) La detección o tasa de aciertos
2) La comisión de error o tasa de falsas alarmas
3) La latencia de detección
Las diferencias de edad en atención sostenida han sido más extensamente exploradas en adultos y
ancianos que en niños, aunque varios estudios han comparado la ejecución de vigilancia de niños
diagnosticados con problemas de aprendizaje con aquellos otros con una habilidad media de
aprendizaje. Estos estudios indican que la eficiencia de detección de los niños con problemas de
aprendizaje es significativamente peor que la de los niños sin problemas.
La habilidad de los niños para mantener la atención parece mejorar con la edad. Gale y Lynn en 1972
llevan a cabo un riguroso estudio sobre vigilancia en niños y observan que la eficiencia de la detección
mejoraba con la edad hasta los once años, con una mejora particularmente marcada entre los ocho y
los nueve años.
Otros estudios no han encontrado efectos de edad tal vez de nuevo debido a que el tipo de tarea y la
complejidad cognitiva de la misma esté implicada. Así, se ha observado que ya desde los tres a los
cinco años se produce el fenómeno de la inercia atencional, por el cual si la atención se ha mantenido
durante más de quince segundos inicialmente, es más fácil que se mantenga de forma continua. Se da
atención sostenida en actividades como ver la televisión y no en tareas complejas porque la demanda
de la tarea afecta.

67
5. EXPLICACIONES DEL CAMBIO EVOLUTIVO DE LA ATENCIÓN
La progresión evolutiva de la atención se ve reflejada en:
1. Una mayor eficacia en la selectividad y menor tendencia a la distracción.
2. Y en el paso a un control voluntario de la atención.
Dos interpretaciones a los déficits de selección de los niños:
1. La atención es un recurso cognitivo de capacidad limitada y que, con maduración y experiencia,
crece. Los recursos aumentan y pueden asignarse más recursos a lo relevante.
2. La capacidad permanece constante, lo que cambia es la habilidad para asignar los recursos
eficientemente. Esto puede deberse a dos factores:
a) A que existen diferentes mecanismos atencionales que se desarrollan en diferente
momento evolutivo (habituación, inhibición, etc.)
b) O a que la persona no los emplea de manera eficiente por falta de conocimiento de
sus propias estrategias y los efectos de su aplicación.

6. META-ATENCIÓN

A lo largo del desarrollo evolutivo se produce un mayor control y flexibilidad de asignación atencional.
Estos aspectos necesitan diferentes mecanismos que se adquieren en diferentes momentos en la
evolución e incluso después de adquirirlos pueden existir diferencias en su uso (1) por el conocimiento
que el propio sujeto tiene de sus capacidades y (2) sobre cómo y cuándo usarlas.
Las diferencias evolutivas en autoconciencia contribuyen al desarrollo de estrategias en niños. Los
niños se vuelven cada vez más conscientes de los resultados de sus acciones y esto se ve acompañado
por un aumento de la atención prestada a los comportamientos que usan para lograr las metas,
afectando a la regulación de la actividad.
En relación a la atención se ha comprobado que el uso de estrategias atencionales en la infancia se ve
acompañado de una creciente comprensión de los factores que afectan a la comprensión.
• 3 años: Se dan cuenta de los efectos distractores del ruido y de la dificultad de prestar atención
ante la falta de interés. Al buscar objetos son conscientes de que el número de distractores y el
efecto de similitud influyen y coinciden en señalar que una estrategia de exploración visual siste-
mática es preferible a una aleatoria. También saben que hay modos de tratar de evitar las distrac-
ciones: eliminar la fuente de distracción o concentrarse más.
• 5 a 10 años: Los niños son conscientes de que existen mejoras con la edad en atención. Consideran
más importantes el interés que el ruido como factores que afectan a la atención. Se da un énfasis
creciente en los factores psicológicos (motivación, implicación mental, etc.) que tiene implicacio-
nes para el desarrollo social al emplear tácticas para conseguir el interés del otro en un tema.

• 8 años: Saben que es preferible mirar sólo a elementos relevantes en lugar de mirar a los relevan-
tes e irrelevantes. A los 5 ya entienden en qué consiste atender y qué aspectos influyen, pero el
conocimiento de la mayor parte de las estrategias se consigue entre los 5 y los 8 años. La mayoría

68
de los niños de cuatro años demuestran poca comprensión de lo que supone escuchar selectiva-
mente, algunos de 5, muchos de 6 y casi todos lo de 8 años comprendían que atender selectiva-
mente a un evento puede reducir la información que se obtiene de otros eventos incidentales.

• A partir de 11 años: Parece que el niño progresa de un conocimiento como recepción pasiva del
entorno a comprender el procesamiento activo de la información y a los 11 años son conscientes
de que el contenido de los propios pensamientos puede afectar en la recepción de información.
El estudio del conocimiento que el niño tiene de la atención y sus variables se ha centrado en relación
a la selectividad atencional y sus estrategias. Los métodos empleados inicialmente infravaloraban sus
conocimientos al requerir respuestas verbales: el reconocimiento de una buena estrategia surge antes
que la capacidad de verbalizarla espontáneamente. Además los autores suelen distinguir entre la
producción de una estrategia y el empleo de la misma, ya que quizás, producirla conlleva inicialmente
tanto esfuerzo que nunca la use en una situación apropiada.
Los aspectos mencionados pueden tener una gran implicación en déficits atencionales en el desarrollo.

7. ALTERACIONES DE LA ATENCIÓN
Las disciplinas que han estudiado cómo y/o por qué tienen lugar los trastornos de atención han sido,
por un lado la neuropsicología (interesada por el efecto que tienen ciertas lesiones cerebrales tienen
en el funcionamiento de los procesos mentales), y por otro la psicopatología (interesada en la
clasificación y descripción sistemática de los distintos trastornos mentales y conductuales).

• Dentro de la psicopatología cada vez se hace más referencia a la presencia de ciertos déficits o
disfunciones atencionales que acompañan a algunos desórdenes metales y/o conductuales. Así,
estudian diferentes actitudes de comportamiento relacionados con disfunciones atencionales:
1. Atención como concentración: Se produce una alteración de la fijación de la atención y los
sujetos presentan:
➢ Ausencia mental: Gran concentración sobre un aspecto que impide la atención a cier-
tos estímulos a otros estímulos que pueden ser relevantes.
➢ Laguna temporal: Fruto del procesamiento automático. El sujeto se hace consciente
de este procesamiento cuando un cambio o demanda de la situación le hacen volver
a un modo de atención controlado.
2. Atención como selección: Se produce una alteración en la capacidad para separar lo relevante
de lo irrelevante y los sujetos presentan distraibilidad.
➢ Su grado más intenso, con ausencia completa de atención es la Aprosexía.
➢ Se da en episodios maniacos (atienden fugaz y sucesivamente a múltiples elementos
con gran distractibilidad), trastornos de ansiedad (hipervigilancia), cuadros crepuscu-
lares y esquizofrenia (baja capacidad de concentración focalizada con gran distraibili-
dad e incapacidad para diferenciar entre lo relevante y lo irrelevante).
3. Atención como activación: Se produce un estrechamiento del foco atencional produciéndose
una visión en túnel.

69
4. Atención como vigilancia:
- Déficits en atención sostenida, un ejemplo claro son los pacientes que sufren esquizofrenia.
- Hipervigilancia: Correlaciona con ansiedad generalizada y ansiedad rasgo, por ejemplo, en
los paranoides donde se produce un estrechamiento del foco atencional e hipervigilancia del
foco reducido.
5. Atención como set mental/expectativa: Alteración en la capacidad de separar lo relevante de
lo irrelevante. Set hace referencia a una disposición general o preparación mental y los esqui-
zofrénicos tienen problemas de disposición atencional mostrando incapacidad para diferen-
ciar entre información relevante e irrelevante (set segmental o disposición fragmentada).

• Posner realiza una división cerebral-funcional de la atención en 3 partes:


(1) Atención visual: Lóbulo parietal posterior → Regiones posteriores
(2) Control y supervisión: Lóbulos frontal y prefrontal → Regiones anteriores
(3) Alerta: Subcórtex.
La neuropsicología se ha interesado por la atención centrándose en las alteraciones cerebrales que
influyen en la atención visual principalmente.

TRASTORNOS DE LA ATENCIÓN VISUAL. NEUROPSICOLOGÍA COGNITIVA


1. Desenganche de la atención:
➢ Negación visual unilateral: También conocido como neglect visual. Este síndrome es el
más común y más estudiado. Se produce en pacientes con daño en el hemisferio de-
recho y niegan o ignoran estímulos visuales contralaterales a la lesión, es decir, del
lado izquierdo del espacio. En tareas de preindicación ejecutan bastante bien, excepto
cuando el indicio se presenta en el campo visual no dañado y la clave en el campo
visual dañado.
Está asociado especialmente a lesiones en la parte posterior del lóbulo parietal (se
puede observar muy bien con PET)
➢ Simultagnosia: Estos sujetos sólo pueden procesar uno de dos o más estímulos pre-
sentados simultáneamente, aunque estén muy juntos y los campos visuales intactos.
2. Cambio de la atención:
➢ Parálisis supranuclear progresiva: Asociando con daños en el cerebro medio. Estos su-
jetos presentan dificultad para realizar movimientos oculares voluntarios en dirección
vertical. Por tanto se producen problemas en el movimiento de la atención vertical.
➢ Síndrome de Balint: Asociado con daños en áreas parieto-occipitales. Los sujetos pre-
sentan dificultades para alcanzar objetos a través de la guía visual e incapacidad para
orientar o localizar los objetos.
Enganche de la atención: Se produce por daños en el núcleo pulvinar del tálamo. Estos sujetos
presentan respuestas lentas a claves presentadas en el lado contralateral a la lesión.

70
TEMA 7. ÁMBITOS DE APLICACIÓN DE LA PSICOLOGÍA DE LA
ATENCIÓN
1. CONTEXTOS RELEVANTES DE APLICACIÓN
La atención está presente en la práctica totalidad de las circunstancias que rodean nuestra vida. La
función del psicólogo sería la de analizar en cada caso qué tipo de mecanismos atencionales están
implicados e intervenir sobre ellos.
• Factores humanos: Conducción y situaciones de tráfico (especialmente la conducción requiere
tareas específicas a las que atender simultáneamente), pilotaje, actividades industriales y er-
gonomía en general.

• Salud: Distraibilidad y dolor son aspectos muy importantes, junto con el papel de los recursos.
Las técnicas distractivas tienen como objetivo impedir la focalización atencional en determi-
nado tipo de estímulos o situaciones, con un uso muy importante como estrategia de enfren-
tamiento al dolor. Los recursos atencionales son limitados, por tanto, una tarea distractora
consume buena parte de los recursos que la experiencia dolorosa precisa consumir. El dolor
es una experiencia psicológica muy importante para la supervivencia, por ello, los dolores in-
tensos captan nuestra atención de forma automática. Pero, existen ocasiones en que se pro-
ducen dolores leves continuados (enfermedades crónicas, post operatorios etc.) que pueden
ser eliminados desviando el foco atencional hacia otras tareas. En estas enfermedades es muy
importante enseñar estrategias de afrontamiento basadas en la reestructuración cognitiva ya
que, en estos casos, los medicamentos no resultan eficaces (tolerancia, efectos secundarios
etc.). Dos posibles técnicas:
a) Técnicas distractivas
b) Concentración en el dolor para cambiar su percepción (estados disociativos y auto
hipnosis se utilizan frecuentemente en casos de pacientes terminales).
• Deporte: Concentración y no verse influido por posibles distractores y preparación de la res-
puesta motriz. Estudios de Nideffer, quien divide la atención requerida por las competiciones
deportivas en 4 niveles: interna/externa y extensa/intensa.
• Rehabilitación Cognitiva: Sohlberg y Mateer son las primeras en desarrollar un kit de entrena-
miento cognitivo, principalmente en atención con su APT.
• Ámbitos educativos: Trastorno por déficit de atención.

2. TRASTORNO POR DÉFICIT DE ATENCIÓN (TDA)


Suele aparecer entre los 4 y 7 años en niños con un CI normal y que no presentan evidencias de tras-
tornos psicológicos o neurológicos graves. Suelen tener un curso temporal bastante largo (nunca me-
nos de 6 meses) y los niños que la sufren se caracterizan por ser inquietos (hiperactividad), distraídos
(inatención) e impulsivos (impulsividad). Aspectos principales del TDA:
• Es una incapacidad para mantener la atención e inhibir las respuestas impulsivas en tareas o
situaciones sociales que requieren un esfuerzo focalizado, reflexivo, organizado y autodirigido.

71
• Al comienzo se habló de hiperactividad, luego de déficit de atención.
• Se llegó a hablar incluso de disfunción cerebral mínima, pero nunca se ha comprobado. Actual-
mente se estudia la posibilidad de que sean mecanismos dopaminérgicos los implicados.
• Puede darse de manera conjunta –hiperactividad y TDA (TDAH)- o con predominio de inaten-
ción (tipo 1) o con predominio de hiperactividad o impulsividad (tipo 2).
A PARTIR DE AQUÍ VIENE EN EL TEMA 5, ES EXACTAMENTE LO MISMO
DIAGNÓSTICO
• Criterios del DSM-IV
• Descartar que hay retraso mental aplicando el WISC. En niños hiperactivos se produce una
lentitud paradójica de respuesta en la aplicación de subtests con control de tiempo. Además
puntúan bajo en Dígitos, Claves y Aritmética. Esto es importante tenerlo en cuenta.
• Deficiencias madurativas en atención sostenida, control de impulsos, concentración, planifica-
ción y en respuesta a la disciplina (recompensas y castigos).
• Distraibilidad: Facilidad con la que la atención pasa de una cosa a otra o con la que se inte-
rrumpe una tarea sin haberla terminado.
• No enfocan la atención durante el tiempo necesario, ni sobre las cosas relevantes, ni son ca-
paces de percatarse del proceso de atención (meta atención) ni de las demandas atencionales
que requiere una situación:
Consecuencias:
(1) Dificultades específicas de aprendizaje
(2) Problemas secundarios socio-emocionales
EVALUACIÓN
• Escalas de comportamiento infantil (ECI) o de calificación de conductas.
o Observación durante meses o incluso años. Registros del comportamiento atencional
del niño en situaciones familiares y ordinarias, en cuestionarios rellenados por profe-
sores y padres.
o Hay que tener en cuenta que son medidas indirectas y subjetivas (subjetividad del ca-
lificador, ambigüedad de los ítems, rapidez)
• Test psicométricos (Toulouse Pieron, figuras enmascaradas de Gottschalch, emparejamiento
de figuras familiares, APT de Mateer y Sohlberg…)
• Medidas de laboratorio (Continuos Performance Test, Stroop, Atención dividida, Switching)
• Sistemas de observación directa
o Observaciones naturales: aula-casa.
o En sala clínica de juegos con espejo unidireccionales.

72
INTERVENCIÓN COGNITIVO-COMPORTAMENTAL
• Técnicas de autocontrol (autoseguimiento y autorefuerzo)
• Técnicas de reflexividad
• Técnicas autoinstruccionales: Meichenbaum y Goodman, 1971
o La psicología soviética considera al lenguaje como una forma de supervisar la acción y
de interiorizar procesos. El lenguaje puede ser exterior o subvocal y puede ayudar a
los niños en aspectos atencionales.
o Se utiliza mucho con estrategias de resolución de problemas.
a) Definir y comprender la tarea o problema
b) Planear una estrategia general para abordarlo
c) Focalizar la atención en la tarea
d) Evaluar la ejecución.
Si es buena: Autorefuerzo
Si no es buena: Intención de hacerlo mejor la próxima vez.
• Técnicas de auto-instrucción
o Fases:
a) El instructor verbaliza y hace la tarea
b) El instructor verbaliza y el niño hace la tarea
c) El niño verbaliza y hace la tarea
• Autocontrol en resolución de problemas
• Autocontrol en situaciones sociales: Role-playing
• En general, programa STAR
o Stop (detenerse para centrarse en la tarea: Parar)
o Think ahead (Pensar de antemano sobre lo que se pide o se puede hacer: Planificación)
o Act ( Hacer lo requerido o pensado: Actuar)
o Review ( Evaluar los resultados: Revisar)

INTERVENCIÓN CON NIÑOS CON TDA


• Reglas e instrucciones claras, breves y expuestas de forma visible
• Incentivos más ricos antes de tener que castigar
• Consecuencias inmediatas, no demoradas y sistemáticas
• Consecuencias más frecuentes en vista de déficits motivacionales
• Consecuencias de mayor magnitud

73
o Consecuencias positivas: atención, orgullo, fichas, recompensas
o Consecuencias negativas: ignorar, reprimendas visibles, coste respuesta y tiempo
fuera
• Cambio de recompensas más frecuentes para evitar habituación
• Previsibilidad de las situaciones, cambio de reglas etc.

INTERVENCIÓN EN EL AULA
• Tareas adecuadas a las habilidades del niño
o Incrementar la novedad, nivel de interés y estimulación
• Variar frecuentemente el formato de presentación y materiales de tarea
o Favorecer respuestas motoras
• Fomentar participación frecuente y activa de los niños
• Breves momentos de ejercicio físico
• Materias complejas a primeras horas
• Posición de pupitres
• Pupitres individuales y separados
• Posición estimular: mejor en posiciones superiores y a la derecha
• Establecer preguntas guiadas antes y después
o Antes: Ayuda a enfocar la atención selectiva sobre lo revelante
o Después: Ayuda a conectar la atención al próximo contenido
• Eliminar fuentes de distracción
• Clases cerradas
• Reglas de clase visible
o Persiste en la tarea
o Haz un trabajo
o No molestes

74
PSICOLOGÍA DE LA PERCEPCIÓN
2017/2018
58
Índice
TEMA 8. NATURALEZA DE LOS PROCESOS PERCEPTIVOS: CONCEPTO, TEORÍAS Y METODOLOGÍA DE
ESTUDIO .................................................................................................................................... 61
1. DEFINICIÓN DE PERCEPCIÓN ............................................................................................ 61
2. TRADICIONES HISTÓRICAS EN PERCEPCIÓN ...................................................................... 61
2.1 FÍSICA............................................................................................................................ 61
2.2 PSICOFÍSICA .................................................................................................................. 62
2.3 FISIOLOGÍA.................................................................................................................... 62
2.4 EMPIRISMO ................................................................................................................... 62
2.5 WUNDT ......................................................................................................................... 62
2.6 LA GESTALT (1920-1950): WERTHEIMER, KHOLER Y KOFFKA ................................................. 63
2.7 CONDUCTISMO (1912-1940)................................................................................................... 63
2.8 AÑOS 50 ........................................................................................................................ 63
2.9 PROCESAMIENTO DE LA INFORMACIÓN ......................................................................... 64
2.10 ECOLOGÍA PERCEPTIVA ................................................................................................ 64
3. MÉTODO DE LA PSICOLOGÍA DE LA PERCEPCIÓN .............................................................. 64
TEMA 9. SENSACIÓN, ARQUITECTURA FUNCIONAL Y PROCESOS BÁSICOS DE PERCEPCIÓN VISUAL 67
1. ESTRUCTURA BÁSICA Y FUNCIONAMIENTO DEL SISTEMA VISUAL...................................... 67
2. FUNCIONES VISUALES BÁSICAS ........................................................................................ 68
2.1 SENSIBILIDAD A LA LUZ .................................................................................................. 68
2.2 AGUDEZA A LA LUZ ........................................................................................................ 69
2.3 PERCEPCIÓN DEL CONTRASTE ........................................................................................ 69
2.4 PERCEPCIÓN DEL COLOR ................................................................................................ 71
3. ANOMALÍAS VISUALES..................................................................................................... 74
4. FORMAS DE EVALUACIÓN DE LA VISIÓN ........................................................................... 75
TEMA 10. SENSACIÓN, ARQUITECTURA FUNCIONAL Y PROCESOS BÁSICOS DE LA PERCEPCIÓN
AUDITIVA ................................................................................................................................... 77
1. ESTRUCTURA BÁSICA Y FUNCIONAMIENTO DEL SISTEMA AUDITIVO ..................................... 77
2. FUNCIONES BÁSICAS DE LA PERCEPCIÓN AUDITIVA.............................................................. 78
2.1 TONALIDAD ................................................................................................................... 78
2.2 SONORIDAD .................................................................................................................. 81
2.3 LOCALIZACIÓN............................................................................................................... 84
2.4 PERCEPCIÓN DE PATRONES AUDITIVOS .......................................................................... 85
TEMA 11. SENSACIÓN, ARQUITECTURA FUNCIONAL Y PERCEPCIÓN DE OTRAS MODALIDADES:
OLFATO, GUSTO, TACTO Y DOLOR ............................................................................................... 87
1. ESTRUCTURA BÁSICA Y FUNCIONAMIENTO DE LOS SENTIDOS QUÍMICOS ............................. 87
1.1 OLFATO ......................................................................................................................... 87

59
1.2 GUSTO ...........................................................................................................................89
1.3 QUIMIOSTESIA ...............................................................................................................90
2. LOS SENTIDOS CUTÁNEOS ....................................................................................................90
2.1 ANATOMÍA DEL SISTEMA SOMATOSENSORIAL ................................................................90
2.2 CANALES NEURONALES DE LA PERCEPCIÓN TÁCTIL ..........................................................91
2.3 TEORÍA DEL CONTROL DE LA PUERTA (MELZACK Y WALL, 1965 Y 1988) ............................... 91
TEMA 12. EL ESTÍMULO Y LA SENSACIÓN: PSICOFÍSICA .................................................................93
1. TEORÍA CLÁSICA DEL UMBRAL ..............................................................................................93
2. TEORÍA DE LA DETECCIÓN DE SEÑALES (TDS).........................................................................94
3. LEY DE FECHNER...................................................................................................................94
4. LEY DE STEVENS ...................................................................................................................94
5. COMENTARIOS FINALES .......................................................................................................95
TEMA 13. ORGANIZACIÓN PERCEPTIVA Y RECONOCIMIENTO DE FORMAS Y OBJETOS ...................97
1. AGRUPAMIENTO Y SEGREGACIÓN PERCEPTIVA.....................................................................97
1.1 LAS APORTACIONES DE LA GESTALT ...........................................................................97
1.2 LAS APORTACIONES NEOGESTÁLTICAS ............................................................................98
2. MODELOS DE RECONOCIMIENTO PERCEPTIVO ......................................................................99
2.1 MODELO DE COMPARACIÓN DE PLANILLAS .....................................................................99
2.2 MODELO DE ANÁLISIS DE CARACTERÍSTICAS....................................................................99
2.3 MODELO DE BARRAS. HUBEL Y WIESEL ................................................................................ 100
2.4 MODELO DE DESCRIPCIONES ESTRUCTURALES .............................................................. 100
2.5 MARCO DE REFERENCIA ................................................................................................ 100
2.6 TEORÍA COMPUTACIONAL D. MARR .................................................................................... 101
2.7 TEORÍA DE RECONOCIMIENTO POR COMPONENTES DE BIEDERMAN.............................. 101
3. RECONOCIMIENTO DE LAS CARAS....................................................................................... 102
3.1 CONFIGURACIÓN BÁSICA .............................................................................................. 102
3. CONSTANCIA DE LA FORMA ............................................................................................... 103
TEMA 14. PERCEPCIÓN DEL ESPACIO Y DEL MOVIMIENTO: PERCEPCIÓN Y ACCIÓN ...................... 104
1. PERCEPCIÓN DE PROFUNDIDAD ......................................................................................... 104
1.1 CLAVES PICTÓRICAS O MONOCULARES ......................................................................... 104
1.2 CLAVES NO PICTÓRICAS O BINOCULARES ...................................................................... 105
1.3 PUNTOS RETINIANOS CORRESPONDIENTES ................................................................... 105
1.4 INFORMACIÓN DE PROFUNDIDAD EN LA ESCENA (GIBSON) .............................................. 106
2. PERCEPCIÓN DEL MOVIMIENTO ......................................................................................... 106
2.1 PERCEPCIÓN DE MOVIMIENTO REAL ............................................................................. 107
2.2 PERCEPCIÓN DEL MOVIMIENTO CUANDO NOS MOVEMOS ............................................ 107
2.3 PERCEPCIÓN DE MOVIMIENTO APARENTE .................................................................... 108
3. PERCEPCIÓN Y ACCIÓN ....................................................................................................... 109

60
TEMA 8. NATURALEZA DE LOS PROCESOS PERCEPTIVOS: CONCEPTO,
TEORÍAS Y METODOLOGÍA DE ESTUDIO
1. DEFINICIÓN DE PERCEPCIÓN
La percepción es la organización e interpretación de lo captado a través de los sentidos. Es selectiva,
constructiva e interpretativa, por lo que no existe correspondencia entre mundo físico y mundo
percibido. Sería ingenuo pensar que existe realismo entre lo físico y lo percibido ya que el sujeto
interviene en la representación de la realidad (constructivismo).
Existen dos razones para considerar el realismo ingenuo de la realidad:
 Limitación de los Sentidos: los sentidos humanos no son capaces de percibir todos los
estímulos que se presentan alrededor. Los sentidos humanos sólo son capaces de percibir una
pequeña franja de estimulación de todo el espectro. Un ejemplo de esto serían las frecuencias de
onda de luz infrarrojas y ultravioletas; y el intervalo de frecuencia de onda de los sonidos que podemos
percibir (sonidos entre 20 y 20.000 Hz. son percibidos).

 Interpretación: cada sujeto interpreta la realidad de forma diferente. Es importante


diferenciar entre sensación y percepción.
Los estímulos pueden ser dístales o proximales:
 Los estímulos dístales son la energía física que emana de una fuente externa. Sensaciones.
 Los estímulos proximales son esa energía física, cuando incide en un receptor sensorial.
Percepciones.

2. TRADICIONES HISTÓRICAS EN PERCEPCIÓN


Con la aparición del método científico, la psicología consigue avanzar en la ciencia. La percepción
integra las investigaciones llevadas a cabo por la física, fisiología y psicología. Ésta es la razón por la
que los primeros estudios sobre percepción se llevaron a cabo desde el ámbito de la psicofísica, con la
creación de escalas de medida psicométricas.

2.1 FÍSICA
Con las aportaciones de:
Newton: Es el primero en distinguir entre luz (como aspecto físico) y color (como aspecto psíquico,
apreciación subjetiva). Newton llevó a cabo una serie de estudios sobre la luz y descubrió cómo la luz
blanca, al pasar por unalente-prisma, se descompone en el espectro visible humano.
La sensibilidad al color varía para diferentes longitudes de onda: durante la noche, se es más sensibles
a longitudes de onda cortas (colores azulados/verdosos de 500 nanómetros. Por eso las balizas de los
aeropuertos son azules) y durante el día a longitudes de onda largas (colores rojos, amarillos, naranjas
etc.). Creó el círculo de los colores.

Galileo: Establece la relación entre frecuencia (físico) y tonalidad (psicológico) del sonido. El tono
percibido a partir de un estímulo auditivo viene determinado por la frecuencia de la vibración, la cual
se mide en hercios (Hz) o ciclos por segundo. El espectro auditivo humano oscila entre 20 y 20.000 Hz,
aumentando desde tonos graves (20Hz), a agudos (20.000Hz).

61
Fourier: Creador de un instrumento matemático para el análisis de los estímulos. Sus estudios se
utilizan para entender ámbitos visuales, para la descomposición de frecuencias espaciales de
imágenes visuales.
Los colores con mayor frecuencia de onda son más difíciles de percibir que los colores con menor
frecuencia de onda. Ocurre así porque en los primeros existen más cambios luz-oscuridad (contraste)
que en los segundos.

2.2 PSICOFÍSICA
Esta disciplina permite relacionar las propiedades físicas de los estímulos y la sensación psicológica que
producen.
Su principal objetivo fue la determinación de escalas y de umbrales como medidas psicométricas:
 Umbral sensorial (Herbart): se refiere a la cantidad mínima de estimulación necesaria para
producir sensación.
 Umbrales diferenciales (Fechner).

 Leyes psicofísicas:
o Fechner (basado en la constante de Weber: existe una regularidad entre la magnitud estimular
que se necesita y el incremento en estimulación perceptible que se obtiene
E / E = K; proporcionalidad constante): utiliza la constante de Weber, y establece un continuo
para relacionar la estimulación con los umbrales sensoriales, siendo ésta la primera teoría
psicofísica, llamada ley de la función psicofísica: S = K * logE1
o Stevens: ley potencial o exponencial que se agregó a la ley de Fechner. Trata de corregir los
extremos y los sentidos con expansión o extensión. Se respeta que la progresión de estímulos es
geométrica, pero la sensación sería igual a una constante de ajuste (S = K * Ix; el estímulo está
elevado a una potencia que es propia del estímulo). Refleja mucho mejor cómo estimamos, ya
que realizamos estimaciones de forma continua.

2.3 FISIOLOGÍA
Müller propone la ley de las energías nerviosas específicas. Según esta ley, las sensaciones provienen
de la estimulación de un nervio por un estímulo y no de la energía que llega directamente del estímulo.

2.4 EMPIRISMO
El empirismo es una rama de la filosofía y pertenece al ámbito de la metafísica, que se dedica a los
aspectos más psicológicos del ser humano, entre otros muchos temas. Hobbes y Locke consideraron
que lo sensorial es la base de todo conocimiento. Piensan que lo más importante es organizar los
contenidos de la mente y llevan a cabo una división:
 Percepciones Simples: Las formarían todas las sensaciones que recibimos del exterior.
 Percepciones Compuestas: Formadas a partir de la asociación de percepciones simples
(sensaciones).
Buscan determinar la causa de las sensaciones y la forma en que se combinan para dar lugar a
percepciones más complejas. Además, también recogen el aspecto anterior de Müller.
Aparecen una serie de problemas en la concepción empirista de las percepciones debido a la
ambigüedad informativa en la percepción de estímulos proximales: la profundidad es uno de los
aspectos ambiguos más estudiados. Consideraron que la base estaba en las claves retinianas y en la
altura relativa (profundidad o elevación).
62
2.5 WUNDT
Wundt considera que existe una validez relativa de las claves fisiológicas en la percepción de la
distancia. Utiliza como metodología los procedimientos psicofísicos de Fechner y está influido por la
teoría de las energías nerviosas específicas.
También estudia las condiciones que hacen surgir las sensaciones a través de la psicofísica, las
características de las sensaciones (color); utilizando el método de introspección y la forma de
combinación de las sensaciones a través de las ilusiones visuales.

2.6 LA GESTALT (1920-1950): WERTHEIMER, KHOLER Y KOFFKA


Se opone a considerar la percepción como descomponible en sensaciones. El todo es diferente a la
suma de las partes ya que aparecen propiedades emergentes.
Llevaron a cabo estudios sobre:
 Las causas del surgimiento de gestales, formando las leyes de organización perceptiva:
organización, similitud, continuidad y cierre.
 La determinación de propiedades gestales; como por ejemplo las leyes figura-fondo.
 También realizaron aportaciones al reconocimiento de formas.

2.7 CONDUCTISMO (1912-1940)


Con el conductismo se produjo una reducción de los estudios dedicados a la percepción. Su aportación
más importante fue la creación de dos técnicas para evaluar la percepción:
 Técnica de Condicionamiento Operante Discriminativo: permite la evaluación de
capacidades perceptivas en sujetos carentes de lenguaje verbal. Por ejemplo, la distinción de
colores; la presencia de una luz roja permite la obtención de alimento al presionar una palanca, por el
contrario, una luz verde no. Nos permitió conocer que las palomas sí distinguen los colores, pero los
gatos, perros y ardillas no (cuando las luces poseen la misma luminosidad), ya que no perciben los
colores, pero sí la luminosidad.

 Técnicas de Registro Conductual: (preferencia de la mirada). Permite el estudio de la percepción


infantil y animal.

2.8 AÑOS 50
Se produce un movimiento denominado New Look en los años 50. Helmholtz realizó dos importantes
aportaciones:
 Teoría de la Inferencia Inconsciente: Según esta teoría la percepción depende de la inferencia
inconsciente que realizamos cuando percibimos objetos. Por ejemplo, la percepción de
movimiento en objetos estáticos o la constancia del tamaño. Emmert propone una ecuación para el
tamaño percibido: TP = Tamaño Retiniano * Distancia Perceptiva.
 Teoría Cromática o Tricromática: los colores se forman a partir de 3 colores básicos: azul, rojo
y amarillo. Considera muy importantes las expectativas en la percepción (p. ej., la habitación
de Ames). También son importantes los mecanismos no conscientes como la defensa
perceptiva de palabras tabú o emocionales y la percepción subliminal.
Los sujetos ansiosos quedan más impactados ante la percepción de palabras con alto
contenido emocional que el resto de sujetos no ansiosos.
63
2.9 PROCESAMIENTO DE LA INFORMACIÓN
Utilizan la metáfora del ordenador para explicar la mente. Consideran al cerebro como el hardware
del ordenador y las funciones mentales (la inteligencia, memoria, atención etc.) como el software.
GLOBALIDAD-TOTALIDAD: destacan los estudios de Navon en 1977, quien idea un procedimiento con
micro letras y macro letras. Llega a la conclusión de que con más de 6º de ángulo visual se observa
primero lo global y luego lo local; a no ser que los sujetos hayan sido sesgados o preparados para lo
contrario. Cuando los estímulos se presentan en un signo visual muy pequeño se percibe primero lo
local.
Implica flexibilidad cognitiva el cambiar la percepción de la globalidad a la localidad y viceversa.
Resuelven el problema del empirismo filosófico sobre la ambigüedad perceptiva a través de las
expectativas e inferencias.

2.10 ECOLOGÍA PERCEPTIVA


La perspectiva ecológica considera que no existe tanta ambigüedad en los estímulos proximales: se
dan múltiples momentos y perspectivas espaciales que ayudan en estas situaciones. Se utilizan las
imágenes de la retina para inferir los tiempos de contacto (Gibson) según la velocidad a la que
aumenten los objetos en ésta.
Piensan que esta ambigüedad se soluciona cuando se adopta un punto de vista ecológico. Esto ocurre
porque, según Gibson, en la estimulación proximal hay unas propiedades invariantes que denominan
affordances:
 Unidad de Gradiente de Textura: el gradiente permanece estable y el sujeto utiliza esa unidad
para realizar sus juicios.
 Flujo Óptico: el movimiento de los objetos en la retina cuando hay movimiento. El punto hacia
el que se mueve el sujeto (se corresponde con la dirección hacia la que se orienta la nariz)
permanece estático y lo de alrededor se mueve.
Si la percepción es mala, difícilmente se recordará o codificará bien esa información. La percepción es
un proceso muy rápido y que se lleva a cabo en paralelo. Los errores en la misma son los que provocan
fallos en el recuerdo, ejecución etc.

3. MÉTODO DE LA PSICOLOGÍA DE LA PERCEPCIÓN


Utiliza el método científico a través de técnicas experimentales, correlacionales y observacionales. La
técnica utilizada depende mucho del (1) problema al estudiar, (2) la fase en la que se encuentra y (3)
del nivel de inferencia buscada.

Procedimientos:
 Detección: La audiometría que consiste en detectar estímulos para determinar umbrales.
 Discriminación: Implica, además de detectar, identificar.
 Comparación Perceptiva: Juicios de igual-diferente.
 Búsqueda Visual: Utilizando unas características determinadas.
 Reconocimiento de Patrones o de Objetos Concretos.

64
Técnicas:
 Técnica Sustractiva de Donders: Sirve para obtener información de las fases de un mismo
procedimiento. Consiste en presentar varias versiones de una tarea en la que, en cada una,
se piden diferentes formas de procesamiento. En una primera versión, por ejemplo, se pide a los
sujetos que detecten un estímulo y ejecuten una respuesta y se miden los TR. En una segunda versión,
se añade un componente de discriminación perceptiva. El aumento en los TR se asocia a este
componente extra en la tarea. Por medio de las diferencias en los TR en las diferentes versiones
de una tarea, se conoce el tiempo empleado en cada fase de procesamiento.

Implica varios supuestos: Serialidad, Independencia de los Tiempos, Aditividad y Pura Inserción.

 Técnica de Factores Aditivos de Sternberg: Utiliza métodos estadísticos para estudiar la


cualidad de funcionamiento y consiste en manipular variables independientes. La lógica
fundamental consiste, primero en localizar los procesos implicados en la realización de una
determinada tarea y después en escoger una variable independiente para cada proceso.

La diferencia de los tiempos de reacción entre las diferentes condiciones experimentales indica
la cualidad de funcionamiento, interpretando los resultados en función de la interacción entre
los procesos asociados a cada variable independiente. Lo esencial de la lógica propuesta por
este autor reside en que se puede inferir que los factores que no interactúan afectan a un solo
proceso y los que interactúan influencian etapas comunes. En general, la lógica ha trascendido
al tiempo de reacción como variable dependiente y se ha llevado a multitud de contextos.

En resumen, no se produce aditividad si dos factores afectan a diferentes procesos (ya establecidos,
conociéndose la fase en la que afectan), por el contrario, sí que hay aditividad si dos factores afectan a un
mismo proceso.

Aparatos:
 Taquitoscopio

 Generador de Sonidos

 Electrooculografía

 Ordenadores

65
66
TEMA 9. SENSACIÓN, ARQUITECTURA FUNCIONAL Y PROCESOS
BÁSICOS DE PERCEPCIÓN VISUAL
1. ESTRUCTURA BÁSICA Y FUNCIONAMIENTO DEL SISTEMA VISUAL
El inicio de una experiencia perceptiva visual se produce por la incidencia de energía electromagnética
de la atmósfera en los órganos sensoriales que, en este caso, son los ojos. Las ondas electromagnéticas
pueden llegar a individuo de dos formas: (1) incidiendo directamente a los ojos las ondas dispersas en
la atmósfera; o (2) reflejando sobre la superficie de objetos, permitiendo que los ojos los capten.
Cuando la energía luminosa incide sobre los ojos, la luz atraviesa la córnea (parte externa del ojo), el
humor acuoso, la pupila (regula la cantidad de luz que entra en el ojo a través de la variación del tamaño de
su apertura). El iris (músculo pigmentado que rodea la pupila) es quien regula la apertura de la pupila. A
continuación, la luz pasa por el cristalino. El cristalino es una gran lente que permite enfocar los objetos
según la distancia a la que éstos se encuentran (se tensa cuando el sujeto está cerca del objeto y se
relaja cuando está lejos). Este mecanismo ayuda, además, a la percepción de la profundidad. Después
la luz atraviesa la zona del cuerpo vítreo hasta llegar a la retina, donde se encuentran los conos y
bastones necesarios para la agudeza visual. Transmiten información a las células bipolares y éstas a
las células ganglionares y los axones de estas forman el nervio óptico (transmite la información y se
cruzan las fibras nasales en el quiasma óptico). Las ramas internas de las fosas nasales se cruzan en el
nervio óptico y las ramas temporales no, por lo que la proyección del campo visual izquierdo acaba
proyectando al hemisferio derecho y viceversa. Las vías del NGL:
 Vía Ventral (qué): las señales visuales llegan al lóbulo temporal.
 Vía Dorsal (dónde): las señales visuales llegan al lóbulo parietal.
Actúan en paralelo, pero si se deteriora una de ellas se ayudan, la información se relaciona para
dar lugar a la acción voluntaria o propositiva del sujeto.

67
La retina está formada por 3 capas:
 Capa de los Fotorreceptores (conos y bastones). La fóvea es la zona de máxima agudeza visual
y está únicamente formada por conos. En la periferia se encuentran los bastones y en esta
región se da una menor agudeza visual. Estos fotorreceptores serán los encargados de captar
la luz y transformarla en impulsos nerviosos.
 Capa de las Células Bipolares: Entre esta capa y la anterior hay células horizontales.
 Capa de Células Ganglionares: Entre esta capa y la anterior hay células amacrinas. Los axones
de estas células forman el nervio óptico. En la región de la retina donde se forma el nervio
óptico existe lo que se conoce como punto ciego. (está a 16ºde ángulo visual a la derecha de la
fóvea de cada ojo. No tiene receptores).

Las células bipolares y ganglionares interactúan en paralelo.

La luz se compone de ondas de energía electroenergética. La luz se puede describir de dos formas:
 Carácter Corpuscular.
 Carácter Ondulatorio: se corresponden con cualidades psicológicas, por ejemplo, la longitud
de la onda, la amplitud y la frecuencia.

Además, esta energía electromagnética se representa mediante ondas o fotones (dualidad de la


representación de la luz) que viajan por la atmósfera y que contienen cuatro propiedades o parámetros
fundamentales que pueden ser observados y medidos:
 Longitud: Distancia sucesiva entre dos ondas. Mide la longitud de las ondas electromagnéticas
en nanómetros (nm). Las diferentes longitudes de las ondas (expansión o compresión)
permiten percibir los diferentes colores (tonalidades).
 Frecuencia: Mide el número de ciclos de onda que se producen en una unidad específica de
tiempo. Se mide en Herzios (Hz) o ciclos por segundo con sonidos. Se mide la frecuencia
temporal para la audición (determinando la tonalidad de los sonidos, graves o agudos) y la
frecuencia espacial para la visión (determinando la saturación de los colores, generando los
contrastes. Se mide en ciclos por ángulo visual).

• Amplitud o Altitud: Diferencia entre los picos máximos y mínimos con las mismas longitudes
de onda. Tiene cierta relación en la percepción de brillo o luminosidad. Con mismas longitudes
de onda, los colores pueden aumentar en brillo o intensidad y los sonidos en sonoridad.

 Fase: Dos ondas pueden tener igual longitud, frecuencia y amplitud, pero pueden tener
distintas fases ya que, el momento en el que comienza la onda (fase – ó fase +) y llega al órgano
sensorial, es un aspecto muy importante. En audición es muy importante este aspecto porque
permite localizar los sonidos según la fase o momento en el que el estímulo llega a los oídos.

68
2. FUNCIONES VISUALES BÁSICAS
Las funciones visuales básicas son las siguientes: sensibilidad a la luz, agudeza visual, contraste
percibido, percepción del color.

2.1 SENSIBILIDAD A LA LUZ


La sensibilidad a la luz se define como la capacidad para detectar una experiencia visual ante la
mínima cantidad de energía luminosa. Se estudia mediante la adaptación a la luz-oscuridad. La
adaptación a la luz-oscuridad es posible gracias a la existencia de una duplicidad o dualidad de
receptores (conosy bastones):

o  Conos: son sensibles a la luz (visión fotópica). Existen aproximadamente 6 millones de conos en la
retina y se sitúan la fóvea. Permiten una mayor agudeza visual por un principio de menor convergencia
neural*. Necesitan gran cantidad de luz para transmitir un impulso nervioso porque tienen menos
conexiones neurales, cada cono conecta con una sola célula bipolar. (menos sensibilidad, mayor
discriminación).
o  Bastones: son sensibles a la oscuridad (visión escotópica). Existen aproximadamente 120 millones de
bastones que se sitúan alrededor de la fóvea y en la periferia de la retina. Necesitan menos energía
luminosa para transmitir un impulso nervioso ya que varios bastones pasan la información a una célula
ganglionar (sumación de energías), debido a que hay más cantidad. (más sensibilidad, menor
discriminación).

*Hay diferente cantidad neural y de densidad según la localización: cuanto más periférico, mayor
proporción de bastones. Alrededor de la fóvea solo hay conos.

Esta dualidad en la visión (fotópica y escotópica) es la que permite la adaptación a la luz y a la oscuri-
dad. Curvas de adaptación luz-oscuridad. Existen dos fases en la adaptación a la luz:

• La primera parte de la curva: conos (comienza a los 3/4 minutos y se estabiliza a los
7/10 minutos).
• La segunda parte de la curva: bastones (hasta 20/30 minutos).

Tiempo de regeneración de pigmentos: llega un momento en el que se agotan los pigmentos debido
a la estimulación continuada y hay que esperar un tiempo hasta que se regeneran. Los pigmentos de
los bastones tardan más que los conos en regenerarse. Por eso, en la oscuridad, el ojo necesita un
tiempo para adaptarse (adaptación a la oscuridad).

69
Procedimiento de densitometría retinal: permite medir la luz reflejada por el ojo en relación a la
recibida. Da una idea de la cantidad de luz que el ojo aún puede absorber y de los pigmentos aun
disponibles.

Diferentes curvas de sensibilidad espectral de conos y bastones. Newton será quien comience a
interesarse por este aspecto. En los bastones, la sensibilidad se sitúa en 500 nanómetros, que se
corresponde a colores entre azul y verde. Por tanto, durante la noche la visión es mejor ante colores
de esas longitudes de onda. Por el contrario, en los conos la mejor sensibilidad de onda se da entre los
580 y los 600 manómetros, es decir, con los colores amarillos.

2.2 AGUDEZA A LA LUZ


Es el fenómeno o función visual básica complementaria a la sensibilidad. Los responsables
fundamentales de la agudeza visual son los conos, que se encuentran en la fóvea y permiten ver los
detalles y discriminar los estímulos. El resto de conos caen en la periferia de la retina, llena de bastones,
y no permiten la agudeza visual.
La AV es mayor en conos que en bastones. Esto se debe a una menor convergencia neural y
menor espaciamiento entre los receptores.
La medición de la agudeza consiste en determinar cuánto hay que separar dos puntos para que se vea
el espacio entre ellos:

• Letras de Snellen: la tarea del observador consiste en identificar las letras que aparecen en
una presentación. Ambos ojos deben permanecer abiertos y uno de ellos cubierto con la palma
de la mano.

• Anillos de Landolt (también conocida como “C” de Landolt): el sujeto debe indicar si observa una
“C” o un círculo (“O”). El tamaño de la oquedad que cierra la “C” varía.

La ceguera consiste en no discriminar los objetos, pero sí detectar y percibir los estímulos ( colores,
restos visuales...).

2.3 PERCEPCIÓN DEL CONTRASTE


La percepción del contraste hace referencia a la capacidad para percibir diferencias de luminosidad-
oscuridad en una zona que ha sido proyectada en la retina.
Reflectancia: proporción o cantidad de luz que una superficie refleja de toda la recibida.
Luminancia: cantidad de luz que refleja una superficie.
Iluminancia: la cantidad de energía física que proviene de una fuente luminosa (cañón).
Hay tres tipos de contraste (el brillo es subjetivo):
 Contraste Físico: existencia de diferencias entre la intensidad luminosa de áreas vecinas. Viene
determinada por las reflectancias.

 Contraste Perceptivo: experiencia subjetiva. Percepción de brillo en diferentes áreas vecinas.

 Contraste Simultáneo: la percepción de la claridad de un área que puede verse afectada por
la del que la rodea. Dos áreas que irradian cantidades de luz diferentes pueden parecer igua-
les, así como dos áreas que reflejan la misma cantidad de luz pueden parecer diferentes. Esto
se debe a la razón entre sus intensidades y las de las áreas que las rodean.
70
FACTORES QUE INTERVIENEN EN LA PERCEPCIÓN DEL CONTRASTE

1. Adaptación del Observador a la Luz: la adaptación lenta a la luz es la que se lleva a cabo en
20-30 min. Existe una adaptación rápida necesitando el doble de intensidad lumínica para ob-
tener la mitad de brillo. Ésta se produce en los primeros 300ms de exposición a la luz ambien-
tal.

2. Contraste Simultáneo: la percepción de la claridad de un área que puede verse afectada por
la del que la rodea. Hace que dos elementos que tengan la misma luminosidad puedan parecer
diferentes dependiendo del fondo que los rodea (flor gris con fondo negro no parece igual que la
flor gris con fondo blanco, aunque el color de la flor sea la misma). La base del fenómeno del con-
traste simultaneo es la inhibición lateral y también ocurre en las Bandas de Mach. La inhibición
lateral: la inhibición de una célula ganglionar ocurre a causa de la actividad de células adya-
centes (valores que perceptivamente parecen iguales, son distintos).

Los puntos grises aparecen en la mente por el contraste entre el negro y el blanco. Las zonas de más
luminosidad son las intersecciones de los cuadrados. Al existir una zona oscura se genera poca inhibición
lateral y, por el contrario, en la región clara se produce mucha inhibición lateral. Esto hace que sea en
las intersecciones donde más inhibición lateral se produce produciendo el efecto de la percepción de
cuadrados grises en las intersecciones.

3. Efecto del Contorno: los contrastes difusos se detectan peor. Si los contornos son nítidos, en-
tonces se perciben fuertes contrastes. Por el contrario, los contornos borrosos o difuminados
se perciben peor y más débiles.
• Efecto de expansión o asimilación: hay situaciones en las que se expande la
intensidad de un determinado elemento, y en otras ocasiones se asimila lo
que está al lado dependiendo de si hay contraste o no. Solo se da en fondos
donde no resaltan figuras.

4. Percepción de Contraste afectada por la Frecuencia Espacial del Patrón Estimular: cualquier
imagen visual se puede descomponer en ondas sinusoidales con componentes múltiples. Ade-
más, estas ondas pueden ser curvas o no. Se mide en número de ciclos por grados de ángulo
visual.
¿Dónde hay más contraste percibido? En los patrones de enrejado hay un determinado
número de cambios por unidad de espacio, medidos en ciclos/ º ángulo visual. Esta medida
indica la frecuencia espacial de un objeto y el número de patrones luz-oscuridad que tiene.
Permite establecer la función de sensibilidad al contraste. Las personas son sensibles al
contraste entre 3 y 6 ciclos/grado (óptima con 3.5 ciclos/grado). Se considera aceptable hasta los
18 ciclos/grado, a partir de donde la sensibilidad al contraste es deficiente. Esta función
permite conocer cómo varía la sensibilidad para detectar cambios luz-oscuridad según
cambian los ciclos/grado. Es importante tener en cuenta que existe variabilidad entre los
sujetos y que la edad es un factor muy influyente.
Canales de frecuencia: neuronas especializadas en rangos concretos. Entre todas forman el rango
completo. El mayor nivel de sensibilidad se sitúa entre 7 y 10. Existen canales sintonizados en la
orientación y además en la frecuencia espacial. Por debajo de 10, mayor sensibilidad al contraste, a
partir de 20, existe una mala snsibilidad.
71
5. Posición Aparente de un Objeto en el Espacio: la posición que parece que ocupa un objeto en
el espacio hace ver que está iluminado por una fuente de luz, haciendo que su apariencia sea
de una forma u otra. La posición aparente que ocupa en el espacio hace que se perciba con
diferente luminosidad el mismo objeto (ej.: la misma cartulina parece más blanca que la cartulina
de atrás, pero recibiendo menos luz). La posición aparente afecta a la percepción del contraste.

6. Expansión y Asimilación: la claridad de una zona puede asimilarse. Suele ocurrir con los con-
tornos difusos. Este fenómeno sólo se da en fondos en los que no resaltan figuras u objetos.
Pequeñas zonas intermedias de un fondo con diferente luminosidad producen asimilación.
7. La Constancia de Claridad el brillo de un objeto permanece constantepese a haber diferentes
condiciones de iluminación. Esto se produce porque la proporción de reflectancia del objeto y
el contraste de luminosidad (o brillo) con objetos adyacentes se man-tienen constantes.

8. Inhibición lateral: proceso fisiológico por el cual una célula ganglionar estimulada se ve
sometida a procesos inhibitorios por la actividad de las células adyacentes. Las zonas de mayor
intensidad lumínica blanca (las intersecciones), son las zonas de mayor inhibición lateral, porque
son las que más reciben inhibición del negro.

2.4 PERCEPCIÓN DEL COLOR


La primera persona que estudia la percepción es Newton. Se da cuenta de que, al pasar la luz blanca
por un prisma, se descompone en sus longitudes de ondas pudiéndose observar el espectro visible de
color para el ojo humano. La longitud de onda se mide en nanómetros.
El ojo humano puede percibir únicamente una parte del espectro visual. En la vida cotidiana se
perciben los colores a partir de reflexiones luminosas en los objetos y no por medio de pigmentos.
Cuando estas reflexiones luminosas tienen longitudes de onda comprendidas entre 380 y 780
nanómetros resultan visibles para el ojo humano.
El color es una experiencia psicológica (no física). Además, no es una propiedad del mundo, sino que
en el mundo existe la luz y la capacidad de reflectancia de los objetos. Por lo tanto, los objetos reciben
luz blanca, absorben determinadas longitudes de onda y reflejan otras. ¿Los objetos tienen color? No, un
limón tiene la capacidad de reflejar una longitud de onda en torno a 580 nanómetros y la luz reflejada es amarilla.

El color implica que diferentes animales y organismos tengan una percepción diferente de color.
También existen diferencias perceptivas entre personas.
Longitudes de ondas básicas en la física de la luz que son: larga, media y corta.
 Rojos: longitud larga
 Verdes y Amarillos: longitud media
 Azules: longitud corta

La combinación de luces de diferentes longitudes de onda puede originar la percepción de nuevos


colores. Ejemplos: rojo + azul = púrpura; verde + azul = ciano; verde (530) + rojo (620)= amarillo (580nm).

72
La mezcla de colores es aditiva (RGB) y substractiva (pigmentos):
 Las mezclas de luces se conocen como mezclas aditivas. Se llaman así porque todas las
longitudes de onda de las luces llegan al ojo cuando se suman y, por tanto, las energías
lumínicas se mezclan. La mezcla de luces produce el blanco.
Los colores básicos en las mezclas aditivas son el azul, verde y rojo. No es necesario el amarillo
porque se obtiene sumando las luces rojas y verdes.
 Las mezclas de pigmentos se conocen como mezclas sustractivas. En éstas se van mezclando
longitudes de onda de los pigmentos. Cada pigmento sustrae a los otros energía, es decir, se
anula la energía. La mezcla de pigmentos produce el negro.
Los colores básicos en la mezcla substractiva son el azul, amarillo y rojo. No se necesita el verde
porque se puede obtener mezclando los pigmentos azules y amarillos.

La percepción de color da lugar a tres cualidades básicas:


 Tono o Matiz de un Color: Es la experiencia subjetiva y cualitativa que tiene un sujeto en virtud
de las diferentes longitudes de onda que refleja una superficie.
 Brillo: Depende de la intensidad del color y de la intensidad de luminosidad que refleja una
onda.
 Saturación: Hace referencia a la pureza relativa del color o luz que recibimos. La saturación se
ve afectada por la mezcla con otras longitudes de onda.

“El color no existe fuera del cerebro”

FACTORES QUE DETERMINAN LA PERCEPCIÓN DEL COLOR


 Longitud de Onda y Reflectancia y Absorción de Luz por los Objetos: Newton. En el entorno
existen gran variedad de superficies que reflejan la luz de manera muy diferencial. Esto hace
que se perciban colores diferentes según la superficie donde refleje la luz. FUNDAMENTAL.
 Fuente de Luz: La iluminación recibida por los objetos determina las longitudes de onda que
percibidas. Así, las luces incandescentes de las bombillas normales fomentan longitudes de
onda largas (colores más amarillentos y cálidos) y las luces fluorescentes fomentan longitudes
de onda corta (colores azulados y fríos). Por tanto, la iluminación que existe modifica la curva
de reflectancia.
 Contexto de los Colores (superficies que rodean al objeto): Efectos de contraste simultáneo e
inhibición lateral por la importancia de las áreas circundantes. La percepción del color depende
del contexto de colores que rodean al objeto (efectos de contraste simultáneo e inhibición
lateral).
 Nivel de Adaptación del Observador (estado del sistema nervioso): Adaptación del ojo.
Influye en la adaptación selectiva ya que, sujetos que perciben el color rojo de forma
prolongada, sufren una adaptación de sus receptores al color rojo y son más proclives a la
percepción de otros colores (sobre todo de su complementario: postefectos de color).
También se produce una adaptación a la luz-oscuridad y eso hace que en la oscuridad seamos
incapaces de distinguir algunos colores del ambiente (como el azul marino del negro).

73
 Memoria de Color (conocimiento previo): Familiaridad y experiencia del color. Tiene efectos
en la constancia de color. El color característico de los objetos influye en la percepción del
color que observo. Así, por ejemplo, si muestran una naranja de color amarillento, el sujeto
responderá que su color es el naranja; aunque no lo sea, ante la pregunta de su color. En situaciones
de poca seguridad al color de un objeto, por familiaridad y memoria de color se tiende a
recordar el color prototípico de ese objeto.

Luces metaméricas o metámeros: son aquellas luces cuya apariencia percibida es similar, pero
la composición física (longitudes de onda) es diferente. Es decir, consiste en la misma apariencia
perceptiva con distinta composición física (espectral). Este principio es muy importante para los
principios de igualación color-métrica.

TEORÍAS DE LA PERCEPCIÓN DEL COLOR


Existen dos teorías: La Teoría Tricromática (Young, 1802 y Helmholtz, 1852) y la Teoría del Proceso
Oponente (Hering, 1878).

Teoría Tricromática de Young (1802) y Helmholtz (1852)


Esta teoría plantea que la percepción del color es el resultado de tres mecanismos receptores, cada
uno con su propia sensibilidad espectral: uno sensible a longitudes de onda corta (azul), otro a
longitudes de onda media (verde) y otro sensible a longitudes de onda largas (rojo). Los cambios
químicos en los pigmentos de los 3 sistemas de receptores provocan mezclas. Estas mezclas, según las
proporciones, producen el resto de los colores.
Por lo tanto, con 3 luces se pueden producir todos los colores. Y además, el color de cada objeto
equivaldría a un patrón de actividad en los tres sistemas receptores.

La teoría tricromática propone que existen tres tipos diferentes de fotorreceptores, cada uno más
sensible a un rango diferente de longitud de onda. Se basan en una serie de evidencias de apoyo:

 Tres tipos de Conos: cada uno absorbe perfectamente una longitud de onda diferente de la luz.
 Experimentos de Igualación de Color: una mezcla de 420nm y 649nm puede ser igual a una luz
de 500nm.
 Patrones de Ceguera al Color indican la presencia de tres tipos de conos en sujetos normales.

Teoría de Proceso Oponente de Hering (1878)


Plantea la existencia de tres mecanismos diferentes: (1) un mecanismo blanco-negro que responde de
forma positiva a la luz blanca y de forma negativa a la oscuridad; (2) otro mecanismo rojo-verde que
responde de forma positiva al rojo y de forma negativa al verde; (3) por último, un sistema azul-
amarillo que responde inhibiéndose al azul y activándose al amarillo.
Esta teoría se basa en la ruptura o integración (activación o inhibición) de las sustancias químicas que
hay en los receptores de la retina. La Teoría de Hering propone 2 sistemas: cromático (rojo-verde y
azul-amarillo) y uno acromático (blanco-negro).

74
Además, los pigmentos de estos sistemas funcionan de manera oponente, es decir, unos actúan
durante la ruptura o descomposición de los pigmentos (negro, verde y azul en fase negativa) y otros
cuando se integran o recomponen (blanco, rojo y amarillo en fase positiva). Esto es lo que ocurre en la
fase de adaptación luz-oscuridad.
Hering también se basa en evidencias fenomenológicas:
 La existencia de que no se puede tener simultáneamente la experiencia de azul y amarillo (nos
cuesta visualizar azules verdosos) y de rojo y verde (nos cuesta visualizar verdes rojizos).
 Fenómenos de post-efecto de color.
 Ceguera al color: quienes no ven el rojo tampoco perciben el verde y la gente que no ve el azul
tampoco ve el amarillo. Por tanto, se produce ceguera a un sistema y no a un color sólo).
 Efectos de contraste simultáneo revelan una vinculación del rojo con el verde y del azul con el
amarillo.

TEORÍA RETINEX

A partir de 1950 se comienza a poder aislar neuronas concretas del sistema visual y se comprueba que
desde las células bipolares se da un funcionamiento oponente, pero con una importante diferencia
respecto a lo propuesto por Hering: existen células que responden de forma positiva al rojo y de forma
negativa al verde y al contrario. También existen células que responden inhibiéndose al azul y
activándose al amarillo y viceversa. Por tanto, se descubre que existe complementariedad.
Cada teoría consigue explicar unos fenómenos perceptivos, por lo que en conjunto explican la
percepción del color. En la actualidad se apoya esta teoría: (1) los conos no se utilizan de forma
absoluta, sino que actúan en diferentes proporciones y (2) el funcionamiento del sistema oponente
comienza a partir de las células bipolares y de forma complementaria, lo que explica la ceguera a los
sistemas y no a un solo color.
Se considera que ambas teorías funcionan explicando la percepción del color a diferentes niveles:
 La teoría tricromática a nivel retinal (conos y bastones).
 La teoría del proceso oponente a nivel post-retinal (de la retina al cerebro).

3. ANOMALÍAS VISUALES
Las deficiencias en la visión cromática suponen una incapacidad para percibir algunos colores que sí
distinguen las personas con una visión cromática normal. El caso más famoso ha sido el del científico
del siglo XIX John Dalton, y desde entonces se conoce como daltonismo a esta deficiencia cromática.
Actualmente se sabe que hay varias clases de deficiencia cromática. Los sujetos se pueden clasificar:
 Monocromáticos: Ciegos al color. Pueden igualar cualquier longitud de onda del espectro
ajustando la intensidad de otra onda. Así, sólo necesitan una longitud de onda para equiparar
cualquier color del espectro. Realmente están igualando por luminosidad o brillo y no por el
color, ya que sólo perciben el blanco, gris y el negro. Esta ceguera al color debida factores
hereditarios se produce por lo general por la ausencia de conos funcionales. Los
monocrómatas ven todo como sombras brillantes y se les conoce también como ciegos al color
porque sólo pueden utilizar la visión de los bastones.
75
 Dicromáticos: Requieren dos longitudes de onda para equiparar todas las otras ondas del
espectro. Los dicrómatas experimentan algunos colores, pero una gama menor que los
tricrómatas. Se produce por problemas en la enzima que produce los pigmentos de los conos.
Los dicromáticos no perciben un sistema entero de color (rojo-verde o azul-amarillo). Hay tres
formas principales de dicromatismo que son, además, las anomalías cromáticas cualitativas
más frecuentes (tipos de daltonismo):
▪ Protanopia: No son sensibles al sistema rojo-verde (necesitan activar los conos
responsables de la percepción de ondas largas, que no poseen) y no son capaces de
percibir las ondas largas rojas (565nm) ni las verdes intermedias, pasando
directamente al amarillo. Los protanopes perciben las luces de onda corta de color
azul, pero a medida que la longitud de las ondas aumenta, se satura cada vez más
hasta que, a los 492nm, se percibe como gris (punto neutral). Perciben las longitudes
de onda superiores de color amarillo, que se satura a medida que aquellas se
incrementan hasta que en el extremo de onda larga del espectro lo ven como amarillo
saturado. Nunca procesan por encima del amarillo.
▪ Deuteranopia: Tampoco son sensibles al sistema rojo-verde. Ven azules las ondas
cortas, amarillas las largas y tienen un punto neutral a los 498nm (color gris)
aproximadamente.
▪ Tritanopia: Es muy rara y se da con muy poca frecuencia. Los tritanopes son daltónicos
al sistema azul-amarillo. Ven azules verdosos las ondas cortas, rojas las largas y tienen
un punto neutral hacia los 570nm (color gris). Por tanto, no perciben las ondas cortas:
pasan directamente del verde al rojo.

 Tricrómatas: Precisan tres longitudes de onda para igualar cualquier otra. Por tanto, para la
construcción de un metámero utilizan las 3 longitudes de onda. Todos los sujetos normales
son tricrómatas, aunque pueden producirse anomalías a nivel cuantitativo (tricrómatas
anómalos) mezclando ondas en proporciones distintas y no discriminar bien colores cercanos.
Estas anomalías cuantitativas se producen porque no tienen los pigmentos en proporciones
adecuadas y presentan dificultades en las mezclas.

4. FORMAS DE EVALUACIÓN DE LA VISIÓN


 Tests formados por láminas pseudoisocromáticas en las que se utilizan los colores de un
sistema en el fondo y los colores del otro sistema para formar una figura. Esto permite evaluar
la ceguera a los colores. Son muy utilizadas en este grupo las láminas de Ishihara.
 Paletas o cartas de color que se pide al sujeto que clasifique según colores (pruebas de
discriminación de colores). Normalmente se pide a los sujetos que discriminen entre dos
colores cercanos (p. ej., azul puro y azul turquesa) a los que, en uno de ellos, se han añadido
ondas de otra longitud. Existe un sistema de colores internacional dentro de las escalas de
colores establecido por Farsworth y Monsell.

76
 Técnica de igualación colormétrica, a través del anomaloscopio de Nagel. Este instrumento
consiste en un rotor con una luz en la mitad de la ruleta y se le pedía al sujeto que mezclara
colores de diferentes longitudes de onda hasta que consiguiera igualar un color puro de
muestra. Como hemos visto, esto nos permite clasificar al sujeto según el número de
longitudes de onda que utilice para formar el metámero.
El reconocimiento de los objetos es una tarea de percepción superior, más compleja; por lo que no es
una de las funciones básicas de percepción visual.

77
78
TEMA 10. SENSACIÓN, ARQUITECTURA FUNCIONAL Y PROCESOS
BÁSICOS DE LA PERCEPCIÓN AUDITIVA
1. ESTRUCTURA BÁSICA Y FUNCIONAMIENTO DEL SISTEMA AUDITIVO
El sistema auditivo permite a los seres humanos tener sensaciones auditivas. La base de una sensación
auditiva es la vibración (energía mecánica), que se transmite a través del medio y que finaliza al llegar
al oído humano.
Las vibraciones son las compresiones y descompresiones que se producen en el aire, el agua y el metal,
emitidas por una fuente de energía mecánica y medidas en Dinas. En el agua las vibraciones se propa-
gan lentamente y con menor intensidad y en el meta la energía sonora se propaga con mucha rapidez.
Cuando los humanos hablan, expulsan aire desde los pulmones y generan diferentes patrones de vi-
bración según la articulación de la boca.
Las ondas sonoras poseen una serie de parámetros físicos que son interesantes en el estudio de la
percepción auditiva:
 Frecuencia: Medida en ciclos por segundos o Hercios (Hz). La frecuencia determina el tono de
un estímulo. El hombre es capaz de percibir estímulos con frecuencias comprendidas entre 20
y 20.000 Hz.
 Amplitud o Altura de los ciclos: En parte tiene que ver con la sonoridad o intensidad con la
que se percibe un sonido y está basada en la presión sonora. La capacidad humana oscila entre
0 y 180 Db.
 Fase: Momento en el que se encuentra la onda sonora cuando llega al oído. Es muy importante
para la localización de los sonidos.

El sistema auditivo consta de 3 partes: oído externo (patrones de reflexión de los sonidos-pliegues),
medio (impedancia) e interno (cóclea-o.corti). El proceso que siguen lo estímulos auditivos es: (1) Las
ondas sonoras se expanden por el ambiente hasta que llegan a los oídos y son percibidas en forma de
sonido. (2) El sistema auditivo debe llevar los estímulos acústicos a los receptores y después transducir
en señales nerviosas los cambios en la presión de este estímulo. (3) Procesa las señales eléctricas para
que indiquen con precisión las cualidades de la fuente sonora: tono, volumen, timbre y ubicación.
Cuando el conducto auditivo está taponado (catarro) hay consecuencias negativas para oír.
79
Desajustes de Impedancia. La impedancia hace referencia a la resistencia que presenta un medio
para transmitir algo. Tanto el oído externo como el oído medio están llenos de aire, pero el interno
contiene una sustancia acuosa llama fluido coclear, mucho más densa que el aire. Este desajuste se
resuelve en el oído medio (si estas vibraciones pasaran directamente desde el aire sólo se transmitiría
alrededor del 3%). Los huesecillos (martillo, yunque y estribo) resuelven el problema de dos formas:
(1) Mediante las diferencias de tamaño entre el tímpano y la ventana oval. Ésta está en con-
tacto con el oído interno (estribo) y es 17 veces menor que el tímpano, por tanto, concentra
los sonidos 17 veces más.
(2) Mediante el propio sistema de palancas que posee la cadena de huesecillos. El martillo y
el estribo son cortos y el yunque es muy largo. Están articulados de manera que, mediante este
principio de la palanca, aumentan la vibración multiplicándola por 1.3.
Estos dos mecanismos incrementan la fuerza de las vibraciones por un factor de al menos 22 (1.3*17=
22.1), que es el desajuste de impedancia que existe en el sistema auditivo y que, de esta forma, se
corrige.
Los cilios del O.Corti realizan la transducción de los estímulos sonoros en impulsos nerviosos. La in-
formación continúa por el nervio auditivo hasta llegar al núcleo coclear. De ahí, las fibras nerviosas
llegan a la corteza temporal, donde se encuentra el área auditiva primaria. En ésta hay una represen-
tación tonotópica de las frecuencias sonoras. Esto quiere decir que existen regiones del córtex con neu-
ronas especializadas en diferentes frecuencias y que se distribuyen de forma que las que tienen fre-
cuencias próximas están cercanas entre sí y alejadas de las que tienen frecuencias diferentes.

2. FUNCIONES BÁSICAS DE LA PERCEPCIÓN AUDITIVA

2.1 TONALIDAD
Es una cualidad psicológica que permite discriminar sonidos entre agudos y graves y viene determinada
por la frecuencia: frecuencias altas producen sonidos agudos; frecuencias bajas producen sonidos gra-
ves.
Se han formulado diferentes teorías para explicar cómo se discriminan las diferentes frecuencias:
(1) Teoría de la Resonancia de Helmholtz: Esta teoría afirma que la membrana basilar está com-
puesta de una serie de fibras transversales apenas conectadas, cada una sintonizada para
resonar a una sola frecuencia. Estas fibras serían un conjunto de resonadores independien-
tes que provocan la vibración de los cilios del órgano de Corti: la frecuencia dada estimularía
nada más la fibra de la membrana basilar sensible a esa frecuencia. La vibración de esta fibra
activaría las células ciliadas de ese lugar en la membrana.
Sin embargo, la teoría de la resonancia fue rechazada porque ahora sabemos que las fibras de la mem-
brana basilar están conectadas unas con otras, de manera que no pueden resonar de manera indepen-
diente como postulaba Helmholtz. Por ese motivo surge una alternativa a esta teoría: la teoría de la
frecuencia de Rutherford.

80
(2) Teoría de la Frecuencia de Rutherford: Según esta teoría se discriminan los tonos distintos
porque la membrana basilar vibra a la misma frecuencia del estímulo que le llega, es decir,
la cóclea vibra con la misma frecuencia de la onda recibida (Ley de Frecuencia). Esta teoría
vincula la tasa de disparo neuronal y la frecuencia del estímulo. Por ejemplo, un tono de 5000
Hz producirá 5000 impulsos por segundo en la membrana basilar.

Esta teoría fue viable puesto que el periodo refractario limita la tasa máxima de disparo de las fibras
nerviosas a unos 500 impulsos por segundo. Así pues, una sola fibra no puede disparar 5000 impulsos
por segundo.
Para enfrentar este problema de la propuesta de Rutherford, Wever y Bray (1937) postularon el Prin-
cipio de Andanada, que afirma que es posible lograr tasas elevadas de disparo si las fibras nerviosas
operan al mismo tiempo de forma sincronizada. Así, aunque la tasa de disparo de cada fibra está limi-
tada por su periodo refractario, se pueden conseguir frecuencias elevadas de estimulación al dispa-
rarse cada una de ellas de forma ordenada y periódica. Las células nerviosas se disparan por aproxi-
maciones sucesivas sumando las tasas de disparo.

Treinta años después de este principio de andanada, Jerzey y Rose encontraron pruebas de que, en
efecto, la activación de grupos de fibras nerviosas puede conseguir las frecuencias de los estímulos,
pero descubrieron que las descargas se producen de manera irregular (no en forma periódica y orde-
nada) sincronizadas en fase. Este fenómeno lo llamaron cierre de fase y hace referencia a que las
neuronas se disparan en sincronía con la fase del estímulo. Las diferentes fibras se disparan de forma
irregular, pero siempre lo hacen en un momento concreto del ciclo (en una fase concreta). En el ejem-
plo siguiente, siempre se produce en el pico del ciclo del estímulo.

81
(3) Teoría del lugar de Békésy: Concentró su atención en la membrana basilar. Quería deter-
minar cómo vibra la membrana en respuesta a diferentes frecuencias. Sus estudios le lleva-
ron a plantear que cada frecuencia de un sonido estimula en forma máxima a células filiares
diferentes de la cóclea. Las células filiares de cada zona de la cóclea se activan de forma
máxima ante frecuencias específicas:
 Sonidos de frecuencias bajas (25-1600 Hz) estimulan zonas próximas a la helicotrema.

 Sonidos de frecuencias altas estimulan zonas próximas a la ventana oval o estribo.

Este descubrimiento ha sido confirmado por otros investigadores pudiendo afirmar que la máxima
vibración de la membrana depende de la frecuencia de los sonidos.

Además, se ha descubierto por medidas fisiológicas, que existe un mapa tonotópico que ordena las
frecuencias a lo largo de la cóclea confirmando la idea de que la región de la helicotrema de la cóclea
responde mejor a las frecuencias bajas y la región próxima a la ventana oval a las altas.

También se ha observado que las células ciliadas más externas se distribuyen de forma más marcada
frente a las células ciliadas cercanas a la helicotrema, que se distribuyen de forma más difusa. Pero
siempre lo hacen en forma de columna.
Las neuronas que responden mejor a las frecuencias elevadas están localizadas a la izquierda, y las que
responden mejor a las frecuencias bajas se encuentran a la derecha con una posición en columnas
parecida a la que observamos en el sistema visual. Este mapa tonotópico se ha encontrado en neuro-
nas a lo largo de toda la vía de la cóclea a la corteza.

82
En conclusión, se afirma que existen dos grandes grupos de teorías para explicar la percepción de los
tonos:
 Las referidas a los mecanismos del lugar de los receptores.
 Las referidas a la sincronización entre la descarga de patrones y la frecuencia.
Ambos mecanismos, el del lugar y el de sincronización, funcionan en la percepción de la tonalidad,
pero lo hacen para diferentes rangos de frecuencia:
• Mecanismo de sincronización: Frecuencias menores de 500 Hz hasta 1000 Hz.
• Ambos mecanismos de forma conjunta: Entre 1000 y 5000 Hz, además corresponden con los
estímulos más comunes en nuestra vida cotidiana (voz humana, por ejemplo).
• Mecanismo de localización diferencial de las células en la cóclea: Frecuencias superiores a
5000 Hz.

2.2 SONORIDAD
La sonoridad (volumen) es el nivel de presión sonora (grado en que las condensaciones del aire difieren
entre sí). Los parámetros de los que depende la intensidad sonora son la amplitud o altitud y la fre-
cuencia. Esto queda reflejado en la capacidad de percepción de un sonido de 20 db y 1000 Hz, pero no
uno de 20 db y solo 20 Hz (capacidad humana de 1000-5000Hz).
El nivel de referencia mínimo (umbral absoluto) para que el ser humano perciba un sonido es el de
1000Hz: 0.002 dinas/cm2. Los investigadores utilizan una escala manejable cuya unidad de medida es
el decibelio (db). Se aplican la siguiente ecuación para convertir en decibelios la presión sonora:

Ej.: El punto 0 de la escala de decibeles es la presión de un tono de 1000Hz en el umbral, puesto que la presión
de este tono es de 0.002 dinas/cm2. Esto transformado en decibelios:

Por tanto, la capacidad humana para percibir los sonidos oscila entre 0 y 180 Db; aunque a partir de
130 Db hay daño.

83
La curva de audibilidad señala la intensidad, medida en decibelios, necesaria para oír un sonido en
las frecuencias del rango de la audición. El umbral humano es más bajo (más sensibilidad) en las fre-
cuencias entre 2 000 y 4 000 Hz, el rango de frecuencia más importante para comprender el habla.

Como se observa en la gráfica de audibilidad, son necesarias mayores intensidades sonoras para oír
frecuencias superiores e inferiores al rango óptimo de 2 000 a 4 000 Hz. La audición ocurre entre la
curva de audibilidad (umbral de la audición) y la curva superior (el umbral de sensación). Con intensi-
dades por debajo de la curva de audibilidad, no se oye ningún sonido; con las que rebasan la curva del
umbral de sensación, los sonidos se vuelven dolorosos.
Los contornos equidistantes consisten en generar contornos de igual sonoridad psicológica para soni-
dos de diferentes hercios. Se representan mediante curvas de igual volumen e indican el número de
decibelios que producen la misma percepción de volumen en las frecuencias del rango de audición.
Por ejemplo, en la gráfica, la curva marcada con el número 40 se determinó igualando el volumen de las frecuen-
cias del rango de audición con un tono de 1.000 Hz a 40 Db. Del mismo modo, la curva marcada con el número
80 se trazó al hacer coincidir el volumen de diferentes frecuencias con un tono de 1 000 Hz a 80 Db.

84
Fletcher y Munson fueron quienes trazaron las curvas de contornos equidistantes o de igual volumen.
Estas sensaciones se expresaron en fones y se corresponde con el primer intento de medir la sonori-
dad.

La escala de fones es la escala de equivalencias sonoras basada en la igual sonoridad a los db que
tiene un sonido de 1000 Hz para sonidos de otras frecuencias a otros db SPL. Un sonido de 1000 Hz y 20
decibelios tendría una sonoridad de 20 fones y todos los de su contorno equisonoro también . 1000 Hz con 0 db
correspondería a 0 fones (umbral absoluto). Así, la escala de los fones y la de los decibelios coinciden en la fre-
cuencia 1.000 Hz.

Se observa que, conforme aumenta la intensidad en Db, la curva de audibilidad se hace más plana. Se
pueden observar dos niveles:
 Entre 0 y 70 Db: Niveles bajos de intensidad, la curva de audibilidad mantiene una forma
curva.
 A partir de 70 Db.: Niveles altos de intensidad, la curva de audibilidad se hace cada vez más
plana.
Esto hizo que se construyeran dos escalas decibélicas diferentes conforme a estos dos niveles de in-
tensidad:
• Escala Db (A): Utilizada con intensidades bajas (0 a 70 db)
• Escala Db (C): Utilizada para medir sonidos de intensidades altas (a partir de 110 Db).

Ponderaciones de frecuencia: tipo de caracterización de las escalas decibelios:


• Decibelios A: es la red de ponderación más comúnmente utilizada para la valoración de daño auditivo
e inteligibilidad de la palabra. Empleada inicialmente para analizar sonidos de baja intensidad, es
hoy, prácticamente, la referencia que utilizan las leyes y reglamente contra el ruido producido a
cualquier nivel.
• Decibelios B: fue creada para moderar la respuesta del oído humano a intensidad medias. Sin
embargo, en la actualidad es muy poco empleada. De hecho, una gran cantidad de sonómetros ya
no la contemplan.
• Decibelios C: en sus orígenes se creó para modelar la respuesta del oído ante sonido de gran
intensidad. En la actualidad, ha ganado prominencia en la evaluación de ruidos en la comunidad, así
como en la evaluación de sonidos de baja frecuencia en la banda de frecuencias audibles.

85
Aunque conforme aumentan los decibelios las curvas se van aplanando, es importante destacar que
esto no ocurre con las frecuentas agudas de más de 1 000 Hz, que se mantienen iguales.
Problema: Los fones no tienen en cuenta las proporciones de frecuencia y no permiten conocer si subir
de 110 a 120 fones es igual que subir de 10 a 20 fones. Esto quiere decir esta escala no guarda la
regularidad de proporción psicológica. Un estímulo en fones puede ser dos veces superior, pero no serlo a
nivel psicológico (volumen percibido).

Por ello, Stevens, utilizando el procedimiento de ajuste de magnitudes, creó la escala de sones. La
escala de referencia es de 1000 Hz y 40 fones = 1 sones. Cada incremento o decremento de 10 fones
multiplica los sones por 2 (cuando aumenta) y divide por 2 (cuando disminuye). Esta unidad de media
es estable y regular en el continuo. Representa los aumentos geométricos que se producen en los
valores extremos que disparan las diferencias. Esta escala refleja mucho mejor la sonoridad psicológica
que los fones.

2.3 LOCALIZACIÓN
Cuando un sonido llega se utilizan una serie de indicios para localizarlos en el espacio, por ejemplo, la
lateralización o acimut. Normalmente las fuentes sonoras tienen diferentes grados de acimut, excepto
cuando los sonidos proceden de delante. La localización auditiva se describe con estos sistemas de
coordenadas:
 La coordenada horizontal o acimutal específica de las localizaciones que varían de izquierda a
derecha.
 Coordenada de elevación o vertical. Específica de las localizaciones que varían de arriba a
abajo.
 Coordenada de distancia indica lo lejos que esta la fuente de estimulación. Especifica profun-
didad.

INDICIOS FISIOLÓGICOS PARA LOCALIZAR LOS SONIDOS


Claves Binaurales:
(1) Diferencia Interaural Temporal: Este indicio se utiliza con independencia del tipo de sonido y,
por tanto, es genérico a todas las frecuencias de onda. Se detectan diferencias de hasta 10ms en
el tiempo en que llegan los sonidos a ambos oídos. Problema: el cono de fusión. El cono de fusión
hace referencia a los puntos o zonas espaciales que se encuentran a la misma distancia de los
dos oídos, por ejemplo, cuando hay diferencias de plano entre el sujeto y la fuente sonora. El sujeto
corrige este problema con movimientos de cabeza que le ayudan a localizar los sonidos, cambiando las
distancias.

(2) Diferencia Interaural de Intensidad: Dependiendo de donde provenga, llega a los oídos con dis-
tinta intensidad. Esto ocurre porque los obstáculos (incluida la propia cabeza) hacen que la in-
tensidad del sonido se reduzca, llegando a uno de los oídos con menos intensidad. Es importante
sólo para las frecuencias de altas. Con frecuencias bajas los sonidos llegan con la misma inten-
sidad a ambos oídos.
(3) Diferencias Interaurales de Fase: Se utiliza con sonidos de baja frecuencia. Los sonidos llegan a
ambos oídos en diferentes fases (expansión/compresión).

86
Claves Monoaurales:
(4) Reflexiones Auditivas en la Oreja: La oreja posee en el cartílago una serie de pliegues que hacen
que las ondas sonoras de alta frecuencia reboten o reflexionen de manera diferente. Los patro-
nes diferentes de reflexión que generan los pliegues ayudan a localizar sonidos de frecuencias
altas pero no bajas.
(5) Detectores de Diferencias Interaurales en la Corteza Temporal: Se debe a la representación
tonotópica de la corteza. En estas regiones hay neuronas que responden a diferencias específicas
de: tiempo, dirección, intensidad.
Existen otros dos indicios para la localización de los objetos:
• Sonido Directo o Indirecto: La percepción acústica depende de lo que sucede desde que el
sonido parte de la fuente de estimulación hasta que llega al oído. Los sonidos pueden llegar
de manera directa o indirecta (después de haber rebotado en diferentes superficies ). La principal
influencia en el sonido indirecto es el grado de absorción de paredes, techos y pisos. Si se
absorbe la mayor parte del sonido, hay poca reflexión y se escucha poco sonido; pero si se
absorbe poco, se percibe mucho sonido indirecto. La cantidad de sonido indirecto que se pro-
duce en una sala se expresa como tiempo de reverberación.
• Efecto de Precedencia: Hace referencia a que, si la diferencia con la que llegan a los oídos el
sonido directo y el indirecto es menor a 35 milisegundos, normalmente se fusionan eliminando
el indirecto cognitivamente y percibiendo sólo el directo. Por tanto, el fenómeno del eco o de
reverberación se produce cuando los sonidos directo e indirecto llegan con diferencias supe-
riores a 35 milisegundos. Aunque el sonido indirecto se elimina a nivel cognitivo el cerebro lo
utiliza para la localización de sonidos. Cuanto mayor es la distancia a la fuente de sonido, más
se reduce la intensidad del sonido directo y más aumenta la del indirecto.
Curva espectral del sonido: La composición espectral de las frecuencias del sonido varía con la
distancia. A mayor distancia más frecuencias graves percibidas y menos agudas.

2.4 PERCEPCIÓN DE PATRONES AUDITIVOS


La mejor discriminación humana, entre una gran variedad de patrones auditivos, se produce en el re-
conocimiento de los patrones del habla. Además, esto se corresponde con el intervalo de frecuencia
en el que mejor se perciben los sonidos: la voz humana oscila entre 150 y 3500 Hz, y entre 500 y 1000
Hz.

TEORÍA MOTORA DE RECONOCIMIENTO DE PATRONES DEL HABLA


Esta teoría intenta explicar el porqué se reconocen los fonemas independientemente del contexto en
el que se encuentren.
Por ejemplo, el fonema /de/ cambia su sonido según las vocales entre las que se encuentre, pero siempre somos
capaces de reconocerlo. Según esta teoría, esto se produce porque reproducimos la secuencia articulatoria de
producción del fonema. Es decir, en cuanto oigo el fonema /de/ recupero su secuencia articulatoria indepen-
dientemente de las vocales que tenga de contexto (/da/, /de/, /di/, /do/, /du/). Esto se debe a que, el primer
formante de cada sílaba, aunque el sonido varíe según la vocal que lo acompañe (a, e, i, o, u), no mantiene una
diferencia superior a los 300 Hz.

La activación de la secuencia articulatoria podría ayudar a diferenciar los fonemas.

87
Incluso se realizan filtrados de frecuencia que permiten seguir manteniendo una buena ejecución en
el reconocimiento de patrones auditivos. La corrección de la discriminación del lenguaje se sigue man-
teniendo por encima del 70% con sonidos mayores y menores a 1900Hz.
Reduciendo la intensidad del habla normal hasta en 24Db (susurro), la corrección del mensaje se man-
tiene en un 95%, incluso con reducciones temporales del 50% de un mensaje se consiguen correcciones
del 85% al utilizar el contexto.

88
TEMA 11. SENSACIÓN, ARQUITECTURA FUNCIONAL Y PERCEPCIÓN
DE OTRAS MODALIDADES: OLFATO, GUSTO, TACTO Y DOLOR
1. ESTRUCTURA BÁSICA Y FUNCIONAMIENTO DE LOS SENTIDOS QUÍMICOS
El olfato crea sensaciones en respuesta a las moléculas gaseosas que entran en contacto con los re-
ceptores de la nariz. Las percepciones del gusto son respuestas a las moléculas líquidas del aire que
tocan los receptores de la boca. Se ha llamado a estos sentidos detectores de moléculas porque dotan
a tales partículas gaseosas y líquidas de olores y sabores distintivos.
Estos sentidos tienen:
 Detectar las cosas que harían daño al organismo y que por lo tanto deben ser rechazadas.

 Identificar lo que el cuerpo necesita para sobrevivir y que debe ser consumido. En esto tam-
bién colabora el componente afectivo emocional del gusto y del olfato.
Una propiedad única de los sistemas olfativo y gustativo es que sus receptores pasan por un ciclo de
nacimiento, desarrollo y muerte en periodos de 5 a 7 semanas. Esta renovación continua de los recep-
tores se denomina neurogénesis. Esto se debe a que están relativamente indefensos y necesitan me-
dios para renovarse.
Ambos sistemas se encuentran muy relacionados, así cuando se saborea la comida, se experimenta
una combinación de gusto y olfato.

1.1 OLFATO
El ser humano es menos sensible a los olores que otros animales porque no lo necesita para sobrevivir:
Los animales son macrosmáticos (sentido más agudo del olfato, indispensable para su supervivencia),
mientras que el ser humano es microsmático (sentido menos agudo ya que no es crucial para la super-
vivencia). Los receptores son muy sensibles individualmente. La poca capacidad se debe al número
(apenas 10 millones contra los 1 000 millones del perro, por ejemplo).
Es un sentido muy importante para atender a la comida pasada, las fugas de gas o el humo de los
incendios, entre otros. Los sujetos que sufren anosmia sufren pérdida de la capacidad olfativa por
lesiones o infecciones.

Los seres humanos pueden detectar pequeñas diferencias en la intensidad de los olores. Los umbra-
les diferenciales fueron estudiados por William Cain (1977). El cromatógrafo de gases es el aparato
que nos permite medir con exactitud las vaporizaciones de los cuerpos. Aunque es difícil reconocer
ciertos olores, esta capacidad mejora con la práctica. De acuerdo con Cain, cuando se dan dificultades
para identificar olores, no se debe a una deficiencia del sistema olfatorio, sino a la incapacidad de traer
a la memoria el nombre. Saber el nombre correcto de una sustancia parece transformar la percepción
en olor.
El olfato de los seres humanos tiene el potencial de ofrecer información sobre otras personas. Fenó-
meno de la Sincronía Menstrual que se refiere a una función del olfato en las relaciones personales.
Los receptores de sistema olfativo se encuentran en la membrana pituitaria. Las moléculas odoríferas
entran en contacto con las neuronas receptoras de los cilios del epitelio olfatorio. Los cilios contienen
proteínas receptoras olfatorias que son los activos para la olfacción.

89
Las moléculas olorosas llegan a los cilios de dos formas:
 Fluyendo por el aire inhalado.

 Uniéndose a las proteínas olfatorias de enlace, segregadas en la cavidad nasal y que las trans-
porta hasta los receptores.
Cuando los olores llegan a los sitios activos, la proteína receptora olfatoria de los cilios abre los canales
de iones de la membrana de estos cilios generando un impulso nervioso comunicándose al resto de las
neuronas olfativas y transmitiéndose al bulbo olfatorio.
Problema: no se conoce la vinculación entre las propiedades de una molécula olorosa y la percep-
ción de los olores. Moléculas muy semejantes huelen muy diferente y otras que son desiguales tienen
olores similares.

Por ello, los objetivos de los investigadores se han orientado hacia el cómo son los estímulos olorosos
y no hacia la experiencia (código neuronal) que producen. Un resultado de esta investigación es el
concepto de odotopos, grupos de “odorables” que comparten alguna característica química que de-
termina la activación neuronal. Si estas moléculas similares químicamente activan un determinado
grupo de neuronas, entonces se consideran un odotopo. Las neuronas que responden al mismo odo-
topo suelen situarse en lugares próximos.
 Las neuronas receptoras olfativas responden a diversos odorables. Cuando una neurona re-
ceptora responde a varios odorables, éstos suelen tener odotopos semejantes.
En la membrana pituitaria, las neuronas receptoras similares se agrupan en zonas específicas. Para
demostrar este agrupamiento se registra la actividad electroencefalográfica, indicando la actividad
conjunta de miles de receptores. La diferencia de respuesta de las zonas de la membrana se denomina
efecto de sensibilidad regional, puesto que se trata de regiones sensibles a diferentes sustancias quí-
micas.
Las neuronas que se encuentran en los glomérulos del bulbo olfatorio responden a diversos estímulos,
pero cada una lo hace mejor a las moléculas con odotopos semejantes. El mapa odotópico se utiliza
para describir la actividad que despiertan los odorables con diferentes características moleculares en
las zonas del bulbo olfativo Cada neurona responde a clases peculiares de odorables y éstos activan
zonas específicas de la membrana pituitaria y del bulbo olfatorio. Cada glomérulo del bulbo responde
sobre todo a los agentes que excitan una clase de neuronas receptoras, aunque también lo harán a
otros. Por lo tanto, cada odotopo genera una respuesta vigorosa a ciertos glomérulos y una débil a
muchos otros.
El gusto y el olfato se combinan para crear el sabor. Destaca el aspecto afectivo del gusto, es decir, lo
agradables o desagradables que son los sabores y cómo esto influye en los alimentos que se escogen.
Se conoce como aliestesia al cambio de sensación. La reacción al estímulo del gusto puede ser posi-
tiva al probar lo que sea, pero puede volverse negativa si se sigue comiendo. Los estímulos son agra-
dables o no dependiendo de las señales del interior de nuestro cuerpo. Así mismo, las experiencias
influyen en la percepción de los sabores estableciéndose un vínculo entre los alimentos y las enferme-
dades muy importante para la supervivencia.

90
1.2 GUSTO
El proceso del gusto comienza en la lengua. Hay cuatro tipos papilas:
 Filiformes: En toda la extensión de la lengua
 Fungiformes: En la punta y los lados de la lengua
 Foliadas: Serie de pliegues en los lados
 Circunvaladas: En la parte posterior de la lengua
Todas las papilas, excepto las filiformes, contienen botones gustativos u olivas. Por lo tanto, la estimu-
lación del centro de la lengua –que sólo contiene estas papilas– no produce sensaciones de sabor.
Los botones gustativos contienen varias células gustativas con protuberancias filamentosas que se
alojan en el poro gustativo. La transducción ocurre cuando los agentes químicos entran en contacto
con los sitios receptores produciéndose complejas reacciones químicas en el interior de las células.
Las señales eléctricas que se generan en las células gustativas se transmiten desde la lengua por dos
vías:
 El nervio de la cuerda timpánica: Conduce las señales del frente y los lados.

 El nervio glosofaríngeo: Inerva la parte posterior.

Transmite las señales de los receptores de la boca y la laringe:


 El nervio vago.
Las fibras de estos 3 nervios se conectan en el núcleo del tracto solitario y de ahí van al tálamo y a dos
áreas del lóbulo frontal (la ínsula y el opérculo parietal).

CUALIDADES DEL GUSTO


Las cualidades del gusto son: salado, dulce, amargo y agrio. También se ha propuesto otro gusto bá-
sico, llamado umami, que se describe como carnoso, jugoso y salino y que acentúa los sabores. Se
descubrió que algunas sustancias tienen un sabor predominante: El cloruro sódico (salado), el ácido
clorhídrico (agrio), la sacarosa (dulce) y la quinina (amargo),
Pero otras son el resultado de la combinación de los cuatro sabores básicos: el cloruro de potasio (sa-
lado y amargo) y el nitrato de sodio (dulce, agrio y amargo).
Hay diferencias de orden genético que influyen en la capacidad para percibir el gusto de ciertas sus-
tancias. Uno de estos efectos tiene que ver con la capacidad de distinguir el sabor amargo de la fenil-
tiocarbamida (FTC). Recientemente se ha descubierto que el propiltiuracilo (PROP) tiene propiedades
semejantes a la FTC. Ambos confieren sabores amargos a las sustancias. Se llama catadores a quienes
perciben estas sustancias y no catadores a quienes no las perciben (también llamados ciegos a esos
sabores). Además, los catadores también señalan un carácter más amargo en la cafeína y en ciertos
quesos que los no catadores.

91
VIDEOMICROSCOPIA
La nueva técnica llamada videomicroscopia permite a los investigadores contar las papilas de la lengua
que contienen los receptores del gusto. Así, se ha descubierto que quienes perciben el PROP tiene
mayores densidades de papilas que los demás.
En el código neural de la cualidad del gusto se distinguen dos codificaciones:
 Codificación Especificada: Consideran que hay cuatro clases de fibras que representan los cua-
tro sabores básicos. Hay neuronas sintonizadas para responder a estas cualidades.
 Codificación Distribuida: Consideran que la cualidad está indicada por el esquema de actividad
de muchas fibras. Las soluciones que resultan más parecidas tienen pautas similares de acti-
vación.

1.3 QUIMIOSTESIA
Se trata de un sentido con el que se detectan las sustancias químicas irritantes (el mentol es una
excepción). Se vale del nervio trigémino que despliega terminaciones libres en la boca, la nariz y los
ojos e inerva el resto de la cara. Es un sentido distinto del olfato y sus señales viajan por el nervio
trigémino y no por el olfativo. Esto se demuestra en que hay sujetos que carecen del olfato –anosmia–
pero sí detectan los agentes irritantes de los compuestos.
Las sensaciones quimiostésicas aparecen más lentamente y perduran más que las olfatorias. Se pro-
duce una constancia para los olores, pero no para las sensaciones quimiostésicas.
Aunque son sentidos distintos, están relacionados. Una de las funciones de la quimiostesia es adver-
tirnos de las sustancias peligrosas que hay que evitar. Es la base de la sensación “picante” o “ardiente”.

2. LOS SENTIDOS CUTÁNEOS

2.1 ANATOMÍA DEL SISTEMA SOMATOSENSORIAL


Los sentidos cutáneos se valen del sistema somatosensorial, que también comprende la propiocepción
(el sentido de la ubicación de los miembros) y la cinestesia (el sentido del movimiento del cuerpo).
La piel preserva la integridad del interior, calienta al organismo e impide que escapen los fluidos cor-
porales y que entren bacterias, químicos o polvo. Proporciona protección del exterior, también nos
informa de los estímulos que entran en contacto en ella.
La capa externa de la piel es la epidermis. Los receptores se localizan en la epidermis y en la capa
inferior, la dermis. Las fibras nerviosas de los receptores cutáneos viajan en haces (nervios periféricos)
que entran en la médula espinal por la raíz dorsal. Una vez en la médula espinal, siguen dos vías prin-
cipales:
 La vía del lemnisco medial: Tiene fibras largas que llevan señales relacionadas con la sensación
de las posiciones de las extremidades y la percepción del tacto.
 La vía espinotalámica: Consta de fibras reducidas que transmiten las señales relacionadas con
la temperatura y el dolor.

92
2.2 CANALES NEURONALES DE LA PERCEPCIÓN TÁCTIL
Hay cuatro canales neuronales de percepción táctil, correspondientes a los canales psicofísicos. Las
cuatro clases de fibras identificadas se denominan fibras mecanorreceptoras porque responden al des-
plazamiento de la piel.
 El canal CP: Respuesta a las frecuencias elevadas causadas por la terminación del receptor.

 El canal AL 1: Respuesta a los detalles.

Una forma de determinar la agudeza táctil es midiendo el umbral de dos puntos: la menor separación
de dos puntos sobre la piel necesaria para ser percibidos ambos y no como un solo punto. Se observa
que hay zonas más sensibles que otras en la piel.
La capacidad del sistema nervioso de cambiar en respuesta a la experiencia se denomina plasticidad
neural. La percepción háptica es aquella en la que la mano explora cuerpos sólidos.
Cuando se manipulan objetos tratando de identificarlos se emplean tres sistemas:
 Sensorial: advirtiendo las sensaciones cutáneas del tacto, la temperatura y textura; así como
los movimientos y la posición de dedos y manos.
 Motor: al mover dedos y manos.

 Cognoscitivo: reflexionando sobre la información de los sistemas sensorial y motor para iden-
tificar los objetos.

2.3 TEORÍA DEL CONTROL DE LA PUERTA (MELZACK Y WALL, 1965 Y 1988)


Explican el efecto en la percepción del dolor de las influencias centrales y de los estímulos táctiles (que
ocurre cuando se “duerme” la piel). El sistema de control de la puerta consta de células de una zona del
asta anterior de la espina donde se acumula la sustancia gelatinosa y las células de transmisión T. La
señal del sistema de control de la puerta determina la percepción del dolor, que es más grande si la
actividad es mayor. Esta señal fluye por las células T y la controlan dos clases de células de la sustancia
gelatinosa, una (SG+) que excita las células T para abrir la puerta del dolor, y otra (SG-) que las inhibe
y por lo tanto cierra la puerta.
Si sólo están activas las fibras de diámetro pequeño (fibras P, nocioceptores), como las células SG+
están abiertas, se produce dolor. Cuando están activas las fibras de diámetro grande (fibras G), como
las fibras G, que llevan la información de estímulos táctiles inocuos, se inhibe el dolor puesto que las
células SG- cierran la puerta. Así, cuando estímulos que pueden ser dañinos activan los nocioceptores
y las fibras P, las células SG+ abren la puerta y el dolor aumenta. Estímulos suaves, como masajes y
vibraciones moderadas, activan las fibras G, las células SG- cierran la puerta y el dolor mengua.
Otra forma de cerrar la puerta consiste en enviar señales del llamado “control central”, que representa
el cerebro y otras estructuras de orden superior, que cierran la entrada mediante la activación de las
células SG-. La teoría del control de la puerta también se aplica a la reducción del dolor por acupuntura
al producir analgesia (eliminación del dolor sin la pérdida de consciencia) insertando y girando agujas.

93
ENDORFINAS
Las endorfinas son agentes endógenos con efectos analgésicos poderosos y desde su descubrimiento
se han realizado gran cantidad de pruebas que vinculan a estas sustancias con la reducción del dolor.

ESTRÉS
La analgesia inducida por estrés es una disminución en la sensibilidad al dolor que se da en las situa-
ciones de tensión.
 El dolor puede ocurrir sin estimulación externa (efecto del miembro fantasma).
 El dolor está influido por otros factores además del daño de los tejidos, como las emociones,
las expectativas y la tensión.
Cada persona describe los estímulos dolorosos a su manera. El dolor puede significar cosas distintas
para personas diferentes.

94
TEMA 12. EL ESTÍMULO Y LA SENSACIÓN: PSICOFÍSICA
1. TEORÍA CLÁSICA DEL UMBRAL
El umbral absoluto es la mínima cantidad de energía estimular necesaria para que un observador sea
capaz de detectar la presencia de un estímulo. El concepto de umbral se remonta los inicios del siglo
XIX con Herbart. Sus ideas fueron desarrolladas posteriormente por Fechner en su obra Elementos de
psicofísica (1860).
La idea base que subyace a esta teoría es la de que en el umbral absoluto se da una transición entre
un estado en el que el observador no puede detectar un estímulo (si la intensidad es inferior al um-
bral) y otro en el que el observador puede detectarlo (si la intensidad es superior al umbral). Por ejem-
plo, un observador nunca será capaz de detectar un estímulo con una intensidad de 10, 11, o algo menos de 12,
y siempre será capaz un estímulo cuya intensidad sea de 12 o más. El umbral absoluto será 12 en este caso.
La transición entre la detección y no detección de un estímulo es gradual más que abrupta. Sólo se
da una transición brusca cuando todos los factores permanecen constantes durante el experimento,
aunque en condiciones reales nunca lo son (sensibilidad de los receptores, actividad espontánea del sistema
nervioso, atención del observador etc.). Estas variaciones producen pequeños cambios en el umbral, de
forma que éste es diferente en momentos distintos, siendo ésta la causa de la transición gradual.
Fechner propone 3 métodos para determinar los umbrales, denominados métodos psicofísicos clási-
cos.
 Método de los Estímulos Constantes: Para determinar el umbral, seleccionamos de 5 a 9
estímulos, estando el más intenso por encima del umbral y el menos intenso por debajo. Los
demás estímulos tienen intensidades intermedias. Cada estímulo se presenta un número de
veces siguiendo un orden aleatorio. Se considera que el umbral es aquella intensidad detec-
tada la mitad de sus presentaciones.

 Método de los Límites: La diferencia principal entre este método y el anterior es que, en el
anterior los estímulos se presentan de modo aleatorio, mientras que en este se presentan en
orden ascendente y descendente. Las presentaciones ascendentes y descendentes se repiten
un cierto número de veces. Es importante que los estímulos se presenten tanto en órdenes
ascendentes como descendentes para evitar que los sujetos generen tendencias de respuesta.
El umbral se calcula con la media de los valores de los puntos de cruce de cada serie y es el
punto de cruce son los dos valores entre los que el sujeto sí detecta el estímulo y no lo de-
tecta.

 Método de Ajuste: En este método el experimentador cambia lentamente la intensidad del


estímulo hasta que el observador indica que empieza a detectar el estímulo. Se considera que
esta intensidad apenas detectable es el umbral. Si es el propio observador quien ajusta el
estímulo se incrementan las probabilidades de que el sujeto permanezca atento durante todo
el experimento.
El método más preciso es el de los estímulos constantes, pero también es el que más tiempo re-
quiere, mientras que el método de ajuste es el menos preciso, pero también el más rápido.

95
2. TEORÍA DE LA DETECCIÓN DE SEÑALES (TDS)
Muchos autores piensan que no es válida la idea de que exista una medida absoluta de sensibilidad a
la que se pueda denominar umbral. El hecho de que puedan influir en los resultados de un experimento
psicofísico otros factores diferentes a la sensibilidad del sujeto (como los criterios de respuesta) ha
hecho dudar a muchos investigadores sobre la validez del umbral absoluto –determinado mediante
procedimientos psicofísicos clásicos– y ha motivado la creación de otros basados en una teoría que se
denomina “teoría de la detección de señales” (TDS).
Un experimento de detección se señales se diferencia de uno psicofísico clásico en que:
 En uno de detección sólo se utiliza una intensidad estimular una intensidad baja difícil de oír.
 En alguno de los ensayos no se presenta ningún estímulo.

3. LEY DE FECHNER
Fechner derivó una relación entre la intensidad estimular y la magnitud percibida a partir de las dos
siguientes premisas: es válida la ley de Weber, es válido el que la diferencia apenas percibida (DAP)
sea una fracción constante en la intensidad del estímulo (DAP= k*S; donde k es una constante deno-
minada fracción de Weber –k =DAP/S– y S es el valor del estímulo modelo) y la DAP es la unidad básica
de magnitud percibida.
De estas premisas se sigue que la magnitud percibida de un estímulo puede determinarse tomando
como 0 el umbral y añadiendo DAPs. La magnitud percibida (P) es igual a una constante (K) multiplicada
por el logaritmo de la intensidad física del estímulo (I).
P = k Log (I)
La ley de Fechner se ha cuestionado por dos motivos:
• Se basa en que la ley de Weber es correcta pero esta ley sólo es correcta con intensidades
estimulares medias y altas.
• Se basa en que la DAP es la unidad básica de medida y en que una intensidad 20 DAPs por
encima del umbral debe percibirse como una magnitud doble a la que posea una intensidad
de 10 DAPs por encima del umbral.
Stevens demostró que un sonido de 20 DAPs por encima del umbral suena más de dos veces más fuerte
que otro situado sólo a 10 DAPs. Por ello propone una ecuación alternativa que describe más adecua-
damente que la Ley de Fechner la relación entre sensaciones e intensidad en un amplio rango de sen-
tidos.

4. LEY DE STEVENS
La ecuación de Stevens surgió a partir de la técnica, creada por él mismo, de estimación de magnitud.
Esta técnica es muy simple: el investigador presenta primero un estímulo “modelo” al observador y le
asigna un valor. A continuación se presentan luces de diferentes intensidades y se pide al observador
que asigne un número a cada una de ellas en función de su relación con el brillo de la luz modelo.
La ley de Stevens que relaciona la magnitud de estimulación la respuesta de los sujetos es la siguiente:
la magnitud percibida (P) es igual a una constante (K), multiplicada por la intensidad estimular (I) ele-
vada a una potencia (n). Se conoce como la ley de la potencia de Stevens. P = k In
96
5. COMENTARIOS FINALES
La medición de los umbrales ayuda a determinar los mecanismos subyacentes de la percepción como
la curva de sensibilidad espectral en la visión, determinada midiendo los umbrales de visión a través
del espectro visual.
El umbral diferencial es la menor diferencia entre dos estímulos que puede ser detectada. De acuerdo
con la ley de Weber, el tamaño del umbral diferencial es una fracción constante del tamaño del estí-
mulo (k).
La teoría de la detección de señales se ha desarrollado como alternativa a la teoría clásica del umbral
debido a que la respuesta del observador a un estímulo puede verse influida por el criterio utilizado
por éste.
La curva operativa de respuesta (COR) es una representación gráfica del porcentaje de aciertos res-
pecto al de falsas alarmas. La sensibilidad del sujeto al estímulo se indica mediante la forma de la curva
COR.

97
98
TEMA 13. ORGANIZACIÓN PERCEPTIVA Y RECONOCIMIENTO DE
FORMAS Y OBJETOS
1. AGRUPAMIENTO Y SEGREGACIÓN PERCEPTIVA

1.1 LAS APORTACIONES DE LA GESTALT


(1) El todo es distinto a la suma de las partes, hay propiedades emergentes.
(2) Leyes de Segregación Perceptiva: leyes que permiten distinguir entre figura y fondo
 Los conjuntos de líneas, puntos, brillos y colores se constituyen en figuras que sobresalen de
un fondo formando contornos.
 Gracias a estos contrastes (cambios de brillo, color…) que forman los contornos destacan las
figuras:
▪ Las figuras destacan gracias a los bordes o contornos. Las manipulaciones de éstos
(difuminando o incluyéndolos en otra figura) producen dificultades para la segregación
perceptiva.
▪ Hay mecanismos neurofisiológicos: receptores centro-periferia.
 La figura posee estructura, parece estar delante (sobresale) y es significativa. El fondo carece
de estructura y está detrás.
 Se produce una persistencia de la figura: Esto quiere decir que lo que se ve como figura, se
sigue viendo como figura y es difícil pasar a verlo como fondo (flexibilidad cognitiva).
 Generalidad del principio figura fondo: vale para cualquier tipo de sistema, el visual, el audi-
tivo, táctil.
PRINCIPIOS DE LA FIGURA
o Simetría: Los objetos simétricos tienen más probabilidad de percibirse como figura
que los asimétricos.
o Convexidad: lo convexo (saliente hacia fuera) tiene más probabilidad de percibirse
como figura que lo cóncavo.
o Área: los objetos pequeños tienen más probabilidad de percibirse como figura que los
grandes (fondos). Este principio se basa en algunas de las ilusiones perceptivas de mo-
vimiento aparente.
o Orientación: es más probable percibir lo vertical/horizontal como objeto que lo obli-
cuo.

99
(3) Organización y Reconocimiento:
 Principio de Pregnancia o de la buena figura (pop out): una buena figura debe tener regulari-
dad, simetría y sencillez. El mejor ejemplo es el círculo.
 Principios de Organización Perceptiva:
▪ Proximidad: Las figuras que están próximas entre sí tienden a agruparse frente a las
que están alejadas. Cuando se habla de audición se refieren los niveles espaciales y
temporales.
Un ejemplo es el habla, donde tenemos que realizar una segregación perceptiva de las palabras para
poder entender los mensajes. Cuando escuchamos otros idiomas diferentes a nuestro idioma nativo,
nos cuesta mucho realizar esta segregación.

En la música ocurre algo similar cuando escuchamos obras polifónicas. Realizamos como dos figuras
diferentes, por un lado, organizamos todos los sonidos agudos y por el otro los graves.

▪ Semejanza: Lo que es similar tiende a agruparse en figura.


▪ Buena Continuación o Conectividad: Las líneas rectas y curvas suelen verse como con-
tinuas aun cuando una parte sea ocluida por otro objeto.
▪ Cierre: El sujeto tiende a cerrar aquellos contornos que recuerdan a figuras familiares.
Ocurre un fenómeno similar en audición cuando se pierde parte de los fonemas de un
mensaje. Se “cierra” con información del contexto.
▪ Destino común: Objetos con la misma dirección de movimiento tienden a agruparse
en figura. Un ejemplo son los bailarines que se mueven en la misma dirección que
forman grupo perceptivo.

1.2 LAS APORTACIONES NEOGESTÁLTICAS


Las investigaciones gestálticas fueron muy fenomenológicas y empíricas, no basadas en la experimen-
tación, por ello los cognitivos –desde la teoría del procesamiento cognitivo de la información– com-
pruebaron sus aportaciones buscando los factores que sustentan sus ideas especificando las propie-
dades anteriores:
(1) Buena Figura:
o Una figura es más simple cuanto menos se modifica mediante rotaciones o reflexiones (por
eso el círculo es la figura más fácil de reconocer).

o La simplicidad es mayor cuantos menos giros, mayor simetría y mayores ángulos (a mayores
ángulos mayor tamaño de la figura y más saliencia) existen en la figura.

o Teoría de la información de Garner: “¿Cuál es el mejor ejemplo de triángulo?”


• Ley de Pregnancia: Preferencia por las organizaciones que requieren un número mínimo de com-
ponentes.
• Bondad de Patrón: Patrones con pocos modos de organización perceptiva.
• Complejidad de la Forma: número de lados, simetría, compactibilidad (cuanto más disperso, más com-
plejo), tamaño, ángulos. Cuanto más pequeño es más complejo, cuanto más grande más fácil.

• Discriminabilidad: Número de lados, compactibilidad, número de entrantes y salientes.

100
(2) Estudiaron lo que ocurre cuando dos principios de agrupamiento muy diferentes estaban disponibles
en una misma situación. Querían estudiar por qué unos principios priman sobre otros y surge la evi-
dencia de que la orientación espacial es muy importante.
 Orientación espacial absoluta: Sobre el eje vertical mejor discriminación que sobre el horizon-
tal. En relación al objeto en sí mismo, independientemente de quien observa.
 Orientación Relativa: Orientación diferencial deteriora el reconocimiento de manera propor-
cional a la diferencia angular.
 Prioridad del Marco Ambiental sobre el Retiniano: el retiniano es importante si las figuras son
muy complejas.
 Proximidad vs Semejanza: Cuando ambos principios se solapan, el principio de proximidad pre-
valece frente al de semejanza (ejemplo de las T’s y la F). Es muy importante la orientación o
inclinación de la línea, que prevalece sobre la similitud.
 Agrupamiento por Semejanza: Orientación y pendiente de las líneas (prima la pendiente).

 Agrupamiento Perceptivo y Frecuencias Espaciales: Globalidad (frecuencias espaciales bajas) –


Localidad (frecuencias espaciales altas).

2. MODELOS DE RECONOCIMIENTO PERCEPTIVO

2.1 MODELO DE COMPARACIÓN DE PLANILLAS


Es el primer modelo que se plantea y resultó insuficiente para explicar el reconocimiento perceptivo.
Este modelo se basa una metáfora que dice que para reconocer un objeto hay que poner en relación
la imagen sensorial del objeto con la planilla en la memoria de lo que el sujeto supone que debe ser
ese objeto. Si coincide con la planilla se reconoce, si no, no.
Este modelo no tiene en cuenta la flexibilidad humana y los usos del contexto en la percepción. Ne-
cesita un proceso de normalización (ajustes de tamaño, patrón etc.).
Se representan mentalmente mediante plantillas los objetos (imágenes prototípicas), y se van compa-
rando, ej. reconocer el 2, vamos mirando los números y los comparamos con la plantilla que tenemos de ese nº,
con lo cual vamos descartando.

Es un modelo inexacto, puesto que es muy ambiguo.

2.2 MODELO DE ANÁLISIS DE CARACTERÍSTICAS


Según este modelo se reconocen los objetos porque se descomponen en las características que los
constituyen. Va en contra de lo que propuso la Gestalt, pero este modelo propone que en ocasiones
es necesario hacerlo.
Pandemónium de Selfridge: (Metáfora de los demonios con procesamiento en fase):
• Demonios de la imagen retiniana: Son los receptores que captan la información y la envían al área
visual primaria.
• Demonios de las características: Analizan las características de los objetos (curvatura, ángulos, obli-
cuidad etc.) A nivel fisiológico serían similares a los detectores de rasgos de Hubel y Wiesel.

101
• Demonios cognitivos y búsqueda de hipótesis cognitivas: Hacen una representación probable,se-
gún lo almacenado en la memoria, de lo que puede ser el objeto (hipótesis). Cada demonio activa
una hipótesis.
• Demonios de la decisión o reconocimiento perceptivo: Toma la decisión según la cantidad de ac-
tivación de los demonios cognitivos. Dicha activación está afectada por la accesibilidad, por repe-
tición.
No permite explicar todos los fenómenos de reconocimiento de objetos porque se observa que el
reconocimiento global es muy importante en ciertas ocasiones.

2.3 MODELO DE BARRAS. HUBEL Y WIESEL


D. Hubel y T. Wiesel estudiaron los campos receptivos de las neuronas que transmitían información
perceptiva al córtex estriado utilizando la técnica de implantación de microelectrodos en determina-
das neuronas de la corteza occipital. Registraron los impulsos generados al estimular determina-
das áreas de sus retinas (diferencias interhemisféricas).
Diferenciaron tres tipos de células en el córtex estriado con campos receptivos retinianos distintos.

• Células Simples: presentaban una configuración 'lado a lado' del campo receptivo,
de modo que respondían de forma óptima a una barra de luz que tuviese una orienta-
ción determinada. Por tanto, estas células simples detectan líneas, de bordes, de barras.

• Células Complejas: estas neuronas daban su respuesta óptima ante barras que se movían en
una dirección determinada (estímulo óptimo). Dirección de movimiento y longitud mínima es-
pecifica.

• Células Hipercomplejas: estas neuronas respondían óptimamente ante ángulos luminosos o


segmentos que terminaban dentro del campo perceptivo y que se movían en una dirección
determinada, o ante barras de una longitud específica, que poseen una orientación específica
y que se mueven en una dirección específica. (end-stopped cells).
Una propiedad importante de los campos receptivos descritos es que, a medida que el sujeto se aleja
de la retina, se requieren estímulos cada vez más específicos para activar una determinada neurona
de las vías visuales.
Las conexiones excitatorias e inhibitorias de las fibras van desde los receptores a las neuronas de orden
superior. En las vías visuales, están dispuestas de manera que las neuronas superiores responden a
características cada vez más específicas de la estimulación retiniana. Por esta razón, son frecuente-
mente denominadas Analizadores de Rasgos o detectores de características.

2.4 MODELO DE DESCRIPCIONES ESTRUCTURALES


En la memoria hay representaciones estructurales y jerárquicas formadas por un conjunto de propo-
siciones o enunciados sobre una forma visual. Existe una descripción propositiva diferente para dife-
rentes objetos.

102
2.5 MARCO DE REFERENCIA
Es similar al modelo de descripciones estructurales sólo que en considera que las descripciones estruc-
turales son a nivel espacial y no propositivo.
Existe un sistema de coordenadas espaciales centrado en el objeto que permite realizar una descrip-
ción estructural estable de la forma visual independientemente de las transformaciones espaciales (gi-
ros, cambios de orientación, movimientos del sujeto, etc.)

Los primeros en tener en cuenta estos marcos de referencia son Marr y Nisihara: consideraron que se
produce una representación volumétrica y modular (3D) centrada en el objeto. Inicialmente, en esta
representación hay un reconocimiento centrado en las luces-sombras y otra centrada en la persona
que observa.
Emplean ejes de alargamiento de la forma (los ejes de simetría de los objetos): conos generalizados. Los
conos generalizados son superficies creadas cuando se mueve una sección de forma constante y ta-
maño variable a lo largo de un eje. El cuerpo estaría lleno de cilindros: conos generalizados.

2.6 TEORÍA COMPUTACIONAL D. MARR


1. Detección de bordes en las diferentes frecuencias espaciales
2. Esbozo primario (cambio iluminación, contornos)
Descripción de los cambios de iluminación que dan lugar a contornos de las figuras. Puede compararse
con un dibujo de línea en el que se representa la silueta de las figuras.
3. Representación 2½D (superficies objetos con orientación – desde el punto de vista del observa-
dor – y profundidad) modelo de dos dimensiones y media
Descripción de las superficies de los objetos, indicando la orientación y profundidad de cada una.
Puede compararse con un dibujo en perspectiva realizado desde un cierto punto de vista propio del
observador.
4. Representación 3D (figuras geométricas con ejes propios) modelo tridimensional
Descripción de la forma mediante partes que puedan definirse de manera natural. Puede compararse
con un conjunto de figuras geométricas con ejes fácilmente detectables.
5. Acceso a Memoria Semántica

Hay gente con agnosia que no saben conocer los objetos, pero pueden decir la forma, la profundidad… Por esto, se
empiezan a estudiar las diferentes vías de procesamiento.

ETAPA CONSISTE EN PUEDE COMPARARSE CON


Esbozo primario Descripción de los cambios de Un dibujo de línea en el que se
iluminación que dan lugar a contornos representa la silueta de las figuras
de las figuras
Esbozo de Descripción de las superficies de los objetos, Un dibujo en perspectiva realizado desde un cierto
2dimensiones indicando la orientación y una profundad de punto de vista propio del observado
y media cada una

Modelo Descripción de la forma mediante partes que Conjunto de figuras geométricas con ejes fácilmente
tridimensional puedan definirse de detectables
manera natural

103
2.7 TEORÍA DE RECONOCIMIENTO POR COMPONENTES DE BIEDERMAN
Propone que el reconocimiento de objetos se da por componentes:
Existen 36 conos primitivos o geones (rectángulo, cilindro, cono)  conos generalizados. Los geones son
figuras geométricas con un eje a lo largo del cual se forman el resto de objetos. ej. del rectángulo un
coche, del cilindro una taza, del cono un tejado, de la C un babero, etc.

Se diferencian por:
(1) Simetría: Unos presentan eje de simetría y otros no.
(2) Colinealidad: Geones con líneas unidas o colineales y otros no. Si no hay colinealidad no hay coter-
minación.
(3) Paralelismo: Curvas paralelas o no.
(4) Coterminación: Número de contornos que coterminan. Necesita que haya colinealidad. Límites,
bordes, marcación de geones.

(5) Rectitud/Curvilinealidad

FASES
(1) Segmentación de la imagen en zonas cóncavas: Los diferentes geones componentes se aís-lan
en las zonas cóncavas.
(2) Activación de los geones componentes.
(3) Disposición u organización estructurada de los geones. Sin ella no se podría discriminar en-
tre objetos.
(4) Identificación del objeto.

3. RECONOCIMIENTO DE LAS CARAS


Área fusiforme del hemisferio derecho.
El ser humano tiene una capacidad especial para identificar caras:
 El reconocimiento de las caras es diferente al de los objetos: se utilizan diferentes mecanismos.
No se utilizan los geones porque, en las caras, son muy parecidos entre sí. Se cree que existen
regiones específicas del cerebro dedicadas al reconocimiento de caras.
 Hay un conocimiento innato que dirige al ser humano a la atención selectiva. Al poco de nacer
ya se pueden reconocer a las personas utilizando indicios externos (formas globales como el pelo,
siluetas…). Los adultos también pueden utilizar indicios internos para el reconocimiento.

 Para poder reconocer caras hay que identificar la información estructural invariante (los cam-
bios de pose y expresión, que sólo sirven para reconocer expresiones emocionales o el habla).

 Se reconocen caras identificando la identidad.


104
3.1 CONFIGURACIÓN BÁSICA
 Patrón Interno: Ojos, nariz y boca.

 Prototipo de Cara: las caras iguales al prototipo cultural son más reconocibles (en occidente se
reconocen menos las diferencias en caras de japoneses, coreanos, etc.).

 Patrón Externo: forma global de la cabeza: Longitud/Forma nariz, colocación de los ojos, posi-
ción y tamaño de la frente...
CARACTERÍSTICAS INTERNAS Y EXTERNAS
(1) Caras no familiares: Características Externas.
(2) Caras familiares: Características Internas, especialmente de la región ocular. Si una persona
cercana a ti se corta el pelo, no te sueles dar cuenta.

Una cara se reconoce con un potencial N170

EXPRESIONES DE CARAS GLOBALES − EKMAN


 Patrones de Sombreado e Inversión: Si cambian los patrones de sombreado de una cara o se
realizan inversiones en caras desconocidas puede que no se reconozcan.
 Procesamiento Holístico Invertido: una cara invertida permite apreciar la globalidad, buscar el
patrón holístico (este patrón es mucho más importante en el reconocimiento de caras que de objetos);
sin embargo, al ver una fotografía derecha, normal, recta, se aprecian más los detalles.

3. CONSTANCIA DE LA FORMA
Es una constancia parcial.

105
106
TEMA 14. PERCEPCIÓN DEL ESPACIO Y DEL MOVIMIENTO:
PERCEPCIÓN Y ACCIÓN
1. PERCEPCIÓN DE PROFUNDIDAD
Las imágenes retinianas son planas, pero el mundo es tridimensional. Para convertir las imágenes pla-
nas en tridimensionales se utilizan una serie de indicios o claves de profundidad: pictóricas, no pictóri-
cas, puntos retinianos y profundidad de la escena.

1.1 CLAVES PICTÓRICAS O MONOCULARES


Son retratables en una imagen estática. El término monoculares hace referencia a la idea de que pue-
den obtenerse de los dos ojos por separado.

 Superposición/Interposición: Cuando se ve un objeto parcialmente tapado por otro, se


cree que el no ocluido está delante, más cerca. El otro se considera detrás y más lejano.

 Altura Relativa: Los objetos cuyas bases se encuentran por debajo del horizonte se ven a más
distancia si están más arriba del campo visual. Los objetos que están por encima del horizonte
parecen más lejanos que si se encontrasen más abajo en el campo visual.

 Tamaño Relativo: Si dos objetos tienen el mismo tamaño, el más alejado cubrirá menos el
campo visual que el más cercano. Un tamaño mayor hace que los objetos parezcan más cer-
canos. Los objetos proyectan imágenes retinianas diferentes cuando están lejos o cerca. Em-
mert relaciona esta idea mediante una fórmula: TP=TR*DP. El tamaño percibido es igual al
tamaño retiniano por la distancia perceptiva. El resultado es constante, se da una constancia
de tamaño.

 Tamaño Familiar: El conocimiento del tamaño de los objetos influye en el conocimiento re-
lativo de esas denominaciones e incide en la evaluación de la profundidad. El tamaño familiar
es más eficaz cuando falta información acerca de la profanidad. El conocimiento de la ilusión
de Ponzo ayuda a no cometer errores en la percepción.

 Perspectiva Lineal: En el horizonte, dos líneas paralelas confluyen. Esta convergencia brinda
información sobre la profundidad. A mayor distancia, más convergencia: crece hasta que se
unen en el punto de fuga del infinito. Un ejemplo es la ventana de Alberti o tomar una fotografía.
Cndo se hace una pintura en perspectiva lineal, las líneas paralelas convergen a medida quese
alejan.

 Perspectiva Aérea: Los objetos más lejanos se ven menos definidos. Los objetos lejanos hay
que verlos a través de aire y partículas, por lo que aparecen menos definidos que los próximos.
La presencia del aire potencia las ondas cortas, por eso se perciben los objetos más lejanos de
forma azulada.

 Gradiente de Textura: En elementos separados por el mismo espacio, parecen cada vez
más cercanos entre sí conforme aumenta la distancia al observador, como las baldosas de la
calle renacentista.

Sombreado: los patrones proporcionan perspectiva de profundidad, determinando nuestra


percepción. Las sombras pueden ser cóncavas (hacia arriba, con saliencia) o convexas (hacia dentro,
con profundidad).
107
1.2 CLAVES NO PICTÓRICAS O BINOCULARES
Implican ambos ojos de manera conjunta. Algunos de estos indicios son binoculares, pero no todos.

• Claves Oculares: Se basan en la capacidad para sentir la posición de los ojos y la tensión de
los músculos oculares. Estas claves son eficaces sólo a distancias de entre uno y tres metros
del observador.

• Paralaje de Movimiento: Consiste en las diferencias de velocidad a la que se mueven los


objetos con respecto al observador según esté el objeto más lejos o más cerca. Los objetos
se van alejando cuando el observador se mueve. Los objetos cercanos se alejan rápidamente,
al mismo ritmo al que se aleja el observador. Los objetos lejanos se mueven con mayor lentitud
en la retina.

• Acomodación y Convergencia: Se considera un principio biológico. La tensión con la que


los músculos acomodan el cristalino es un indicio de distancia. Si quiero mirar a un punto con-
creto, ambos ojos tienen que converger en el mismo punto focal . Se lleva a cabo mediante la aco-
modación del cristalino para enfocar a los objetos cercanos y lejanos. Se contrae para enfocar
objetos cercanos y se relaja para enfocar los lejanos.

• Disparidad Binocular/Estereopsis: Se le llama clave binocular de la profundidad porque


atañe a los dos ojos. Se basa en la existencia dos vistas ligeramente distintas del mundo
puesto que los ojos miran desde posiciones diferentes (6.5cm de separación). Cada ojo tiene
una imagen espacial determinada, lo que genera tridimensionalidad.
Esto sirvió para crear el estereoscopio, un aparato que permite crear una ilusión convincente
de profundidad con dos imágenes ligeramente diferentes. El principio del estereoscopio es el
mismo que se utiliza para:
 Los Estereogramas: Una imagen creada a partir de otra imagen con ligera disparidad
angular y camuflada por puntos aleatorios que hacen que no sean preceptivamente
visibles a primera vista. Es una construcción de una imagen con conjuntos ligeramente
desplazados.
 Películas en 3D: Consiste en grabar con dos cámaras diferentes.

Lo que se muestra al mirar por el estereoscopio es que, cuando los ojos reciben imágenes un tanto
diferentes de la misma vista, se experimenta una impresión de profundidad. Se utiliza el término es-
tereopsia para referirse a esta impresión de profundidad que nos causa el ligero desplazamiento de
las dos imágenes en la retina.

1.3 PUNTOS RETINIANOS CORRESPONDIENTES


Parte de que ambas retinas están superpuestas, por lo que tienen puntos del espacio que se corres-
ponden y forman una línea eclíptica llamada horóptero. La distancia de los objetos con respecto a la
línea del horóptero produce la disparidad retiniana: a mayor distancia mayor disparidad.
Por delante del horóptero, lo más lejano a la línea es lo más cercano al sujeto. Por detrás del horóptero,
lo más cercano es lo más próximo a la línea.

108
A cada punto de la retina le corresponde un punto en la otra: son los puntos retinianos correspondien-
tes. Los puntos que no están en el horóptero son puntos dispares, cuanto más lejos estén los objetos
del horóptero, mayor es el ángulo de disparidad.
Cuando las imágenes están localizadas frente al horóptero, se desplazan a los lados de ambas retinas,
de lo que resulta una disparidad cruzada. Cuanto más atrás se encuentren del horóptero los objetos,
más se desplaza su imagen hacia adentro y mayor es la disparidad. Así, la disparidad cruzada señala
los objetos que están más cerca que el horóptero. Y la no cruzada que están lejos.

1.4 INFORMACIÓN DE PROFUNDIDAD EN LA ESCENA (GIBSON)


Gibson crea la corriente de ecología perceptiva. Parte de que el sujeto es un observador activo, y no
pasivo, impactado por el entorno, que está en constante movimiento por el ambiente, buscando di-
ferentes perspectivas para obtener mayores indicios de profundidad.
En el entorno, el suelo (superficie de apoyo) proporciona información:

 Gradiente: informa de la distancia. El gradiente es la frecuencia con la que se alternan los


elementos de textura (áreas claras y oscuras) con el alejamiento de la superficie. - Unidad de
gradiente de textura.

 Invariante: información que permanece constante pese a cambios por desplazamiento del
observador. Flujo óptico: Centro del patrón (allí adónde nos dirigimos) no cambia.
Si la percepción es más directa de lo que se pensaba (p. e., Helmholtz) la pregunta es saber por qué se
producen las ilusiones de profundidad. Esta pregunta es difícil de responder, pero se ha resuelto así:
 Una parte puede ser de percepción directa y ofrecer más información del entorno de lo espe-
rado.
 Pero también hay parte de construcción inferencial del sujeto.
Las claves funcionan a distancias diferentes:
 Corto Alcance: Convergencia y acomodación.

 Corto y Medio Alcance: Altura relativa, paralaje de movimiento, disparidad binocular.


 Largo Alcance: superposición/interposición y tamaño relativo.

2. PERCEPCIÓN DEL MOVIMIENTO


El movimiento es una propiedad perceptiva que se da en los objetos.
Aunque el umbral de detectabilidad es bajo, no sirve para captar nada de movimientos superiores a 2
centésimas/segundo. Existen neuronas asociadas a la recepción del movimiento (área V5): Detectores
de movimiento. Los detectores no perciben estos movimientos neuronalmente y, por ello, se infiere
que ha ocurrido utilizando la física (movimiento relativo).
Física: movimiento relativo. Se infiere que se ha producido movimiento porque la posición de los obje-
tos cambia, cubriendo o descubriendo elementos del entorno.

109
2.1 PERCEPCIÓN DE MOVIMIENTO REAL
Los objetos se desplazan por el espacio y, en consecuencia, la imagen se desplaza por la retina acti-
vando los detectores de movimiento. Pese a ello, para que se produzca movimiento real no es nece-
sario ni suficiente que ocurra:
 Ni necesario: Porque podemos mantener fija la retina ante objetos en movimientos estabili-
zándola.
 Ni suficiente: Porque no es suficiente el desplazamiento por la retina.

Es importante considerar, por tanto, la orden eferencial de mover los ojos: Teoría de la Descarga Co-
rolaria: propone que la percepción del movimiento depende de tres señales vinculadas al desplaza-
miento de los ojos o de las imágenes que inciden en ellos: (1) Una señal motriz (SM) enviada a los
músculos oculares cuando el observador transita o mueve los ojos; (2) una señal de descarga corolaria
que es una copia de la señal motriz; y (3) una señal de movimiento de la imagen que aparece cuando
ésta estimula los receptores a medida que pasa por la retina.
 La recepción de una señal de movimiento de la imagen también hace que el comparador
emita una señal de movimiento a la corteza.
 La recepción de una señal de descarga corolaria hace que el comparador envíe señales de
movimiento a la corteza.
 Cuando llegan al comparador la señal de descarga corolaria y la de movimiento de la imagen
al mismo tiempo no se envía ninguna señal a la corteza.
Galleti la llamó célula neurona del movimiento real porque responde cuando el estímulo se desplaza y
no lo hace cuando los ojos se mueven.
 Movimiento: Objeto cuya dirección percibida cambia a suficiente velocidad.
 Velocidad: Cuánto cambia la dirección.

2.2 PERCEPCIÓN DEL MOVIMIENTO CUANDO NOS MOVEMOS


• Cambio de dirección de los objetos respecto a la posición.
• Cambio a un ritmo determinado (Paralaje de movimiento).
Si se cambia de dirección en otro sentido o a otro ritmo: movimiento del objeto.
• Movimiento relativo de la posición con respecto a otros objetos.
Movimiento Inducido: cuando se percibe movimiento en algo estático que da movimiento a
otro objeto:
1. Se produce cuando el campo visual está totalmente ocluido y no se pueden utilizar
otros indicios.
2. Cuando el movimiento es tan lento que los detectores no pueden saber si se ha
movido. Especialmente con cambios de dirección egocéntrica, lentos.
Un objeto que circunda a otro es estacionario (marcos de referencia): El marco de referencia
en el que se mueven los objetos influye en el modo en que se percibe la dirección de los mis-
mos.
110
Automoción Inducida

2.3 PERCEPCIÓN DE MOVIMIENTO APARENTE


El movimiento no es real y se percibe donde no lo hay. Se ha visto el movimiento inducido y la auto-
moción inducida.

El ejemplo más prototípico es el estroboscópico: percepción de movimiento ante la exposición se-


cuenciada de dos escenas estáticas (fotogramas estáticos) con ligeros cambios en los objetos. El movi-
miento no existe físicamente, lo construye el sujeto. Un ejemplo de movimiento estroboscópico es el fenó-
meno Phi que se da en luces.

Existen dos teorías que explican este movimiento:

 Teoría Sensorial: Si dos fotogramas se exponen en secuencia y la única diferencia entre ellas
es la posición, ésta activa receptores retinianos y detectores del movimiento adyacentes. El
cerebro interpreta esta activación de neuronas próximas como flujo óptico. Esta teoría es in-
suficiente porque no siempre es así y a veces los receptores están más separados. Sólo es vá-
lida para corto alcance y con corto intervalo temporal.

111
 Teoría Inferencial: Explica el movimiento en desplazamientos largos o con intervalos de
tiempo más largos. El cerebro detecta que un mismo objeto está en dos posiciones (A y B)
diferentes en dos momentos distintos e infiere que se ha producido movimiento. Al no tener
conciencia de lo ocurrido y no ver nada en el medio de las dos posiciones A y B, el cerebro lleva
a cabo una inferencia de movimiento.
▪ Con menos de 30 milisegundos se da percepción de simultaneidad y no de movi-
miento.
▪ Entre 30 y 60 milisegundos se tiene la percepción de movimiento parcial con luces. En
fotogramas se ve con 40 mseg movimiento estroboscópico.
▪ Con aprox. 60 milisegundos en luces se percibe movimiento óptimo.
▪ Entre 60 y 200 milisegundos: movimiento phi Ø.
▪ A partir de 300-300 milisegundos con fotogramas y con luces se observa sucesión y
no movimiento.
Por tanto, para que se perciba movimiento, es necesario que exista un intervalo temporal adecuado.
Además de una regla de correspondencia:
 No proximidad entre los objetos.
 Identidad perceptiva o fenoménica de cada uno de los objetos.

Otros Movimientos Aparentes:


• Movimiento Autocinético: Una luz estática pequeña provoca sensación de movimiento cuando
el contexto está totalmente oscuro. Se debe a los movimientos de nistagmus de los ojos que
el cerebro elimina en contextos normales.
• Postefecto de Movimiento: Es la percepción de movimiento contrario al movimiento que se
ha estado observando. Por ejemplo, cuando observamos una cascada donde el agua cae hacia abajo,
los receptores de ese movimiento se saturan y al cambiar la vista a otros objetos estáticos parece que
se mueven hacia arriba.

112
3. PERCEPCIÓN Y ACCIÓN
Gibson fue el primero en decir que la percepción era un sentido activo, por ello la considera como un
mediador entre el entorno y la acción (locomoción y alcanzar y agarrar).
Patrón de Flujo Óptico y Locomoción y Acción:
 Cuando el sujeto se mueve el punto al que se dirige permanece estático.
 Campo visual alrededor, moviéndose lejos (flujo exterior).
 Dirección del movimiento: Flujo general o global.
La percepción de objetos:
 Identificación  ¿Qué es un objeto?
 Localización  ¿Dónde está el objeto?
Muy importante para la acción
 Este conocimiento puede que sea no consciente (p. e., con la planificación de movimientos
correctores inferiores a 100ms).
 La información está centrada en el observador.
Lee (1976) recoge la idea de que para actuar con el entorno se dispone de información en la retina que
a veces está más accesible que si hubiese que hacer inferencias inconscientes. Por ejemplo, el Tiempo
de Contacto:
• Se dispone de información directa de la retina que permite tomar decisiones rápidas:
(1) Estimación de tiempo (Estimación de tiempo/estimación de la velocidad).
(2) Tasa de expansión de la imagen retinal del objeto: a mayor tasa, menor tiempo para
el contacto.
• O más cerca está el objeto o se aproxima más rápido. Índice Tau (Tasa de contacto) = 1/Tasa
de expansión
• La información sobre el tiempo de contacto está directamente disponible y es compatible con
la visión ecológica de Gibson.
• Además, presenta numerosa evidencia empírica.
(1) Conductores expertos contra novatos.
(2) Pilotos: sensibilidad al cambio de tamaño.
(3) Saltadores de longitud.

113

También podría gustarte