Está en la página 1de 100

TEMA 1: PSICOLOGÍA APLICADA, PSICOLOGÍA BÁSICA Y

PSICOLOGÍA GENERAL.

1. LA PSICOLOGÍA APLICADA FRENTE A LA PSICOLOGÍA BÁSICA.


Toda ciencia aplicada debe fundamentarse en la ciencia básica. Así, la Psicología
aplicada se apoya en los conocimientos de la Psicología básica que explican, describen y
definen las leyes que rigen el organismo, entendiéndolo como conducta, y los procesos
subyacentes a ella.
Las distintas ramas de la Psicología aplicada se ocupan de la funcionalidad de esos
procesos en los distintos entornos del individuo.
Las diferentes ramas de la Psicología se asientan en el método experimental.

2. LA PSICOLOGÍA GENERAL COMO PARTE DE LA PSICOLOGÍA


BÁSICA.
La Psicología básica abarca todos los conocimientos de la mente y la conducta que no
son aplicados. La Psicología General es la parte de la Psicología básica que estudia los
procesos mentales y la conducta en el individuo normal y maduro

3. EL NOMBRE Y LA DEFINICIÓN DE LA PSICOLOGÍA GENERAL.


Los contenidos específicos de la Psicología General no coinciden exactamente con
todos los conocimientos de la Psicología básica.
La Psicología General sí coincide con la definición de psicología científica; por tanto,
ambas buscan establecer leyes generales.
La generalidad de la Psicología General hace referencia a que establece las bases
teóricas generales de toda la psicología y describe y explica los procesos mentales y las
funciones de la conducta general de los sujetos normales y maduros.

4. LA PSICOLOGÍA GENERAL FRENTE A OTRAS DISCIPLINAS


PSICOLÓGICAS.
Existen otras materias psicológicas que no son aplicadas y tampoco se incluyen en la
Psicología General. Entre ellas están:
- la Psicología Evolutiva.- que estudia cómo se desarrollan los procesos psicológicos a
través del tiempo.
- la Psicología Diferencial.- que investiga las diferencias de los individuos en los
diversos tipos de procesos mentales y sus conductas. Sirve para clasificar.
- materias instrumentales o de apoyo como la Psicología Matemática y la
Psicobiología.

5. PROCESOS BÁSICOS EN PSICOLOGÍA GENERAL.


La Psicología General ha derivado de la Psicología Cognitiva, la cual supone una vuelta
al estudio de la mente. Su objetivo es conocer las operaciones internas en cuanto que son
realizadas por la mente.
Para ello, la psicología cognitiva establece:
- que la mente funciona mediante procesos, transformando una representación en otra
por la aplicación de una regla;
- la concepción de un proceso como la transformación de un input en un output
mediante una operación;
- la analogía del ordenador-mente, estudiando cómo procesa el ordenador para conocer
potencialmente cómo trabaja la mente.
- como modelo de funcionamiento los diagramas de flujo;
- la concepción de la mente como programas que se ejecutan en el cerebro.
La Psicología General considera que la mente y la conducta funcionan mediante
procesos, abarcando todas las actividades psicológicas (procesos cognitivos, aprendizaje,
emoción, motivación...).
En resumen, los procesos psicológicos básicos son aquellos que estudia la Psicología
General.

TEMA 2: PERSPECTIVAS TEÓRICAS DE LA PSICOLOGÍA


CIENTÍFICA.
1. LA PSICOLOGÍA CIENTÍFICA.
Para llegar a la definición actual de Psicología, se hace un análisis de cómo se ha
constituido su estructura científica a través del tiempo.

1.1. ESTRUCTURALISMO Y FUNCIONALISMO.


En los primeros momentos de la Psicología Científica, y por la influencia del dualismo
cartesiano (mente-cuerpo), surgen dos alternativas sobre su objeto de estudio:
- una dirección mentalista, centrada en lo mental e interesada por los hechos de la
conciencia. Comenzó con el estructuralismo elementalista antiguo y llega hasta la psicología
cognitiva.
- una dirección fisicalista, centrada en lo corporal, surge como rechazo al mentalismo y
defiende sólo los hechos observables directamente. Produjo el paradigma del conductismo.
Los paradigmas mentalistas, en su interés por el conocimiento de la conciencia, se
caracterizan por ir alcanzando una mayor complejidad; su objeto de estudio parte de un
continuo que va desde la búsqueda de los elementos de la conciencia hasta la búsqueda de su
estructura.
* Inicialmente surge el estructuralismo elementalista antiguo:
- su objeto de estudio son los elementos de la conciencia;
- utiliza el método de la introspección, consistente en la autorreflexión del observador
sobre sus experiencias conscientes.
* Posteriormente, el funcionalismo:
- su objeto de estudio son los actos de la conciencia en interacción con su entorno.
- su principal representante es William James.

1.2. EL PARADIGMA CIENTÍFICO DEL CONDUCTISMO.


1.2.1. Conductismo radical.
Sus máximos representantes fueron Watson y Skinner. Defienden el estudio de la
conducta observable en estímulos y respuestas y se oponen radicalmente a la conciencia y a la
introspección. Establecen cuatro principios fundamentales para que la psicología pueda ser
una ciencia realmente científica:
- asociacionismo.- la conducta se explica por estímulos y respuestas.
- mecanicismo.- entre las conductas sólo hay diferencias cuantitativas, no cualitativas.
- principio de la continuidad biológica de la evolución.- las leyes de la conducta son
generales para todos los organismos.
- positivismo.- sólo se estudiarán los hechos científicos que cumplan las características
de la ciencia positiva:
a) observables (que se puedan medir),
b) verificables (sometibles a experimentación),
c) fenoménicos (que ocurren en la naturaleza) y
d) positivos (sólo hechos observables explicables por otros hechos observables).
Los conductistas radicales establecen el modelo E-R (estímulo-respuesta), o bien R = f
(E) (la respuesta en función del estímulo). Se dedican al estudio de los estímulos y respuestas
abiertas.
1.2.2. Neoconductismo.
Por la insuficiencia del conductismo radical, surge el neoconductismo que considera
progresivamente algunas modificaciones que introducen factores mentalistas. Así:
- se admiten variables intermedias entre los estímulos y las respuestas. Se establece el
modelo E-O-R (estímulo-organismo-respuesta), y se considera la respuesta en función del
estímulo y del organismo, R = f (E,O).
- se intentan estructurar los aspectos conscientes del mentalismo, pero con la
metodología conductista.
- el desarrollo de variables intermedias permite la creación de estructuras intermedias.
De este modo, Tolman concibe la conducta como consciente y defiende la existencia de
mapas mentales. Introduce el concepto de propositividad en la conducta.

1.3. EL PARADIGMA DE LA PSICOLOGÍA COGNITIVA.


Se trata de una vuelta al mentalismo al postular de nuevo el estudio de la mente, pero
rechazando su postura asociacionista inicial. Surge como consecuencia de:
- la insuficiencia del conductismo;
- la aparición de tres nuevas concepciones teóricas que afectan al modo de estudio de la
psicología:
a) la Teoría de la Información de Shannon.- considera al sistema humano como un
canal que transmite información, la cual se puede cuantificar en bits (unidades de
información). El principal problema radica en la dificultad de contabilizar determinadas
conductas humanas de esta forma, por lo que se abandona el estudio del estímulo en bits.
b) el modelo racionalista de Broadbent.- sigue considerando al sistema humano como
un canal que transmite información, pero formula sus teorías basándose en modelos
racionales. Utiliza diagramas de flujo, que son modelos que indican cómo es procesada
serialmente la información proporcionada por el estímulo, a través de las distintas estructuras
mentales.
c) la metáfora del ordenador.- considera al hombre y al ordenador funcionalmente
análogos; el individuo es tratado como un sistema procesador de información. La Psicología
Cognitiva establece los procesos cognitivos como programas de ordenador intentando
comprobar su funcionamiento en el mismo ordenador, frente a la Inteligencia Artificial, que
pretende conseguir artificialmente los resultados de la mente humana.
Junto con la influencia de estas tres disciplinas, surgen otros dos hechos que
determinan, en parte, el nacimiento de la psicología cognitiva:
- la Teoría General de Sistemas.- que defiende una nueva concepción sistemática de la
ciencia, no mecanicista.
- la Gramática Transformacional de Chomsky.- que postula un planteamiento
racionalista del lenguaje.
En definitiva, la Psicología Cognitiva establece modelos racionales a través de los
cuales la mente funciona mediante procesos que transforman una representación en otra por la
aplicación de una regla.

1.3.1. El paradigma del procesamiento de la información.


La Psicología Cognitiva concibe los procesos psicológicos como procesamiento de la
información. Se aplican los principios del procesamiento de la información en el ordenador
para conocer cómo trabaja la mente y cómo puede ser estudiada. Este procesamiento se refiere
al programa a nivel mental (mente), no al fisiológico (cerebro).
Parte de tres supuestos fundamentales:
- descripción informacional.- conocer una operación interna realizada por la mente, que
transforma un input informativo en un output, a través de una operación.
- descomposición recursiva.- descomponer el proceso sucesivamente hasta poder llegar
a los acontecimientos primitivos informacionales o últimos elementos que lo componen. Es
recursiva porque el output de un acontecimiento informacional anterior se convierte en el
input del acontecimiento informacional siguiente.
- incorporación real del sistema en nuestra mente.- es necesario que los supuestos
anteriores se puedan dar en la realidad.
La mente realiza el procesamiento de la información por sus estados del sistema o
representaciones, y por los cambios de estos estados o procesos.
1.3.2. La psicología cognitiva simbólica.
Parte del establecimiento de la analogía con el ordenador. La mente se concibe como un
programa de ordenador que se ejecuta en máquinas llamadas cerebros.
Mantiene una postura menos drástica que el computacionismo al aplicar el paradigma
del procesamiento de la información a la psicología; mientras para éste todo acontecimiento
es computable, por lo que puede ser simulado en el ordenador, para la psicología cognitiva no
todos los acontecimientos mentales se pueden someter a la descomposición recursiva.
Pero, ¿qué es la computación?. Marr distingue tres niveles de computación:
- nivel computacional.- emparejar input-output a través de una función;
- nivel algorítmico.- establecer una operación matemática concreta para indicar a través
de un programa cómo se ha de llevar a cabo la función anterior;
- nivel de implementación.- aplicación física de la operación.
Por tanto, para la psicología cognitiva la mente es como un programa de computar
información que se implementa en un sistema físico que es el cerebro.
Los componentes del algoritmo en nuestra mente son las representaciones (pueden ser
símbolos), que son unidades como palabras (con significado) a las que se aplican procesos,
que son como reglas sintácticas de composición.
1.3.3. El conexionismo.
Fue fundado por Rosenblatt y consiste en un sistema de representaciones y
transformaciones del conocimiento y se enmarca dentro de la psicología cognitiva. Surge
como consecuencia del nivel de abstracción al que estaban llegando los modelos cognitivos en
su representación del conocimiento. El conexionismo:
- postula el establecimiento de un sistema de representación del conocimiento (sin
significado) que constituye un patrón de pesos de conexiones que se transforma mediante
asociación según señales de excitación e inhibición por aprendizaje y en interacción con el
medio.
- defiende un procesamiento de infinidad de elementos en paralelo.
- establece como modelo un patrón de redes neuronales donde los elementos son como
neuronas. Se trata más bien de un patrón de acción que de representación.
- postula que los procesos se producen por aprendizaje y no por la aplicación de reglas
sintácticas. Este aprendizaje tiene lugar cuando la actividad del organismo, producida por los
patrones de acción, se ajusta o no a las demandas del ambiente en el que se interactúa.
Sus características principales son:
- el procesamiento se produce de modo simultáneo y en paralelo entre elementos
simples que se envían entre sí señales de excitación e inhibición.
- el conocimiento se almacena en asociaciones o pesos de las fuerzas de conexión entre
esos elementos.
La principal diferencia entre el conexionismo y el conductismo está en que no se habla
de conductas exteriores sino de la mente, desde la que se explica la conducta. Sin embargo se
parecen en que ambas se basan en la asociación de unidades elementales y en el
establecimiento del aprendizaje en interacción con el medio.
Las principales diferencias en el proceso de computación entre la psicología cognitiva
simbólica tradicional y el conexionismo son:
sistema conexionista sistema ps. cognitiva
en paralelo ------------------ procesamiento ------------------ serial simbólico
el cerebro ----------------------- modelo ------------------------ el ordenador
en patrón de acción ---------------- actuación -------------------- representaciones
como neuronas ----------------- información -------------------- en el símbolo
patrón de conexiones ------------ representación -------- macroestructuras con reglas

1.4. OTROS PARADIGMAS EN PSICOLOGÍA


1.4.1. El constructivismo
Defiende que los contenidos se construyen apoyándose en conocimientos anteriores. Se
basa en la idea kantiana de que el conocimiento se construye sobre los datos de la experiencia
en esquemas a través de la aplicación de reglas conceptuales universales.
Las distintas posiciones evolucionistas imperantes en cada momento han influido en
gran medida en la psicología. Así:
- el conductismo se mueve dentro de la concepción darwinista de la selección natural.
Es el ambiente el que determina las conductas, reforzándolas o no.
- la psicología cognitiva defiende el papel de la herencia. La mente supone una serie de
programas innatos.
- a partir del neodarwinismo se empieza a aceptar que ciertas variaciones en el
desarrollo ontogenético, esto es, las habidas desde el nacimiento hasta la muerte de un
individuo, se puedan heredar y que las conductas de los individuos determinan la construcción
de sus nichos ecológicos. Con ello se abandona la concepción de nicho ecológico como algo
preexistente.
Según esto, la ontogenia, la biología y las características psicológicas de los individuos
son factores de gran importancia en la evolución.
Dicho esto, el constructivismo psicológico, evolutivo principalmente, defiende que los
procesos mentales no son heredados, sino algo que se desarrolla en la ontogenia; las
estructuras mentales se construyen conforme se desarrolla el sujeto.
Los iniciadores del constructivismo fueron los psicólogos de la Gestalt, ya que:
- describen fenómenos creados por el observador que se dan en todos los individuos.
- tratan de imponer relaciones lógicas sobre los datos sensoriales para construir un
mundo representado.
- rechazan la hipótesis de la constancia, según la cual a cada estímulo elemental le
correspondía una respuesta, también elemental.
- defienden una posición fenomenológica rechazando el método mecanicista de la
introspección. Se centran en las totalidades y no en los hechos aislados.
La psicología de la Gestalt parte de tres supuestos: el dinamicismo, la física de los
campos eléctricos y la hipótesis del isomorfismo (la correspondencia E-R no es puntual sino
de configuraciones). Esta hipótesis no es aceptada hoy en día por no producirse en fisiología.
Lo que perdura de la Gestalt son sus planteamientos sobre la percepción, que han
retomado otras corrientes.
Dentro de la psicología evolutiva, se defienden las teorías sobre el desarrollo de Piaget
y Vygotski como precursoras del constructivismo.
* Piaget rechaza que el conocimiento provenga exclusivamente de la experiencia.:
- el aprendizaje es distinto en los diferentes niveles del desarrollo puesto que depende
del nivel de competencia, entendida ésta como la capacidad de proporcionar algunas
respuestas.
- en contra de las teorías innatistas y las ambientalistas extremas, defiende que entre
ambas se sitúan las autorregulaciones características del desarrollo.
- las autorregulaciones, a través del equilibrio de asimilación-acomodación producen la
dinámica que constituye las estructuras, y no son las estructuras construidas previamente las
que contendrían el resultado del proceso mental.
* Para Vygotski las funciones mentales se construyen por asimilación de las
interacciones sociales y laborales, las cuales provocan nuevas reorganizaciones y estructuras.
Genéricamente, el constructivismo defiende que la representación del mundo se deriva
de las acciones en él. Nuestras acciones son posibles por la formación de esquemas, tanto
representativos como motores.
1.4.2. El psicoanálisis.
- No es una psicología científica, sino que utiliza el método histórico.
- Estudia la personalidad íntegra del individuo de forma analítica y mentalista.
- Busca la interpretación de los fenómenos psíquicos actuales en la historia del
individuo, principalmente en su niñez.
- Explica la personalidad a través de las capas históricas de la mente: consciente,
subconsciente e inconsciente.
- Se basa en la retrospección de los hechos y en la asociación de ideas.

2. DEFINICIÓN DE LA PSICOLOGÍA.
De la sucesión de hechos expuestos que han ocurrido a lo largo de la constitución de la
psicología como ciencia, se puede llegar a una definición consensuada como ciencia de los
procesos mentales y de la conducta.
Los procesos cognitivos son un componente esencial de la actividad mental ya que
permiten el procesamiento o elaboración de la información del ambiente.
Experimentalmente se estudian tareas públicamente observables de las que se infiere
cómo es el proceso mental que está en la base de esas tareas.
De la observación de la conducta se deducen procesos mentales no observables
públicamente; se consideran, entonces, los procesos mentales explicativos de la conducta.
Se puede establecer que el objeto de la psicología es:
- una actividad molar, tanto mental como conductual.
- la actividad de un sujeto que actúa como un todo.
- lo más esencial de esa actividad son los procesos cognitivos subyacentes.
- estudiar la actividad en función del ambiente con el que se interactúa.
Se define Psicología como el estudio científico de la mente y la conducta de los
organismos y en especial del hombre.
TEMA 3: EL MÉTODO DE LA PSICOLOGÍA CIENTÍFICA.

1. TEORÍA DEL MÉTODO CIENTÍFICO.


El método común a toda ciencia es el método hipotético-deductivo o método científico.
Consta de cuatro momentos:
- observación: medición de los hechos conductuales o cognitivos.
- formulación de hipótesis: conjeturas que formula el científico sobre los hechos
observados. La hipótesis tiene que permitir la posibilidad de ser falseada en la
experimentación.
- deducción de conclusiones: en la experimentación se someten a prueba casos
concretos de la hipótesis, nunca la hipótesis en general. Tiene que plantearse en términos de
condicional (si...entonces).
- contrastación: es someter a experimentación los casos concretos deducidos de la
hipótesis. Es ahora cuando se utiliza el método inductivo. Con la realización del experimento
la hipótesis puede ser verificada, cuando los datos la avalan o rechazada, quedando así
falseada.
Con la verificación de las hipótesis, el método científico busca regularidades para la
formulación de leyes y teorías.
Lo más característico de este método es que comienza y termina en la experiencia.

2. LAS TÉCNICAS METÓDICAS.


Hacen referencia a las distintas maneras de llevar a cabo cada uno de los momentos del
método hipotético-deductivo.
En psicología se emplean fundamentalmente tres técnicas metódicas en la fase de
contrastación: experimental, correlacional y observacional.

2.1. EL MÉTODO EXPERIMENTAL.


Es una manera de contrastar las hipótesis mediante experimentos, a través de los cuales
se crea una situación, normalmente en el laboratorio, en la que se pretende averiguar los
efectos de una variable (independiente) sobre otra variable (dependiente) y así poder
establecer una relación entre ellas.
La principal característica de este método es que el investigador puede manipular y
controlar la variable independiente según convenga, para averiguar dicha relación.
Para la investigación en laboratorio se requiere un diseño previo donde se describan:
- los sujetos que van a formar parte del experimento,
- los aparatos necesarios,
- el procedimiento y la situación en que se va a llevar a cabo el experimento, y
- el análisis matemático que se realizará con los datos obtenidos.
Como consecuencia de todo este proceso, se podrá decidir si se cumple o no la hipótesis
de partida.
El experimento más elemental en el que se estudia el efecto de una variable
independiente sobre la variable dependiente utiliza un tipo de diseño llamado bivariado (sólo
se busca la relación entre dos variables). Pero también se puede estar interesado en averiguar
el efecto de varias variables independientes para lo que es preciso utilizar diseños
multivariados.
Las principales ventajas del método experimental son:
- la gran capacidad de manipulación que se ejerce sobre la situación. Para un mayor
control del efecto de la variable independiente se utiliza el grupo de control. Este grupo se
somete igualmente a la situación experimental, excepto en lo que a la variable independiente
se refiere. Así se puede comprobar con gran seguridad que los cambios habidos en el grupo
experimental son debidos únicamente al efecto del tratamiento.
- permite la repetición del experimento en el momento que el experimentador estime
oportuno; a esto se llama duplicación. Cuando en la repetición del experimento se introducen
algunos cambios, se denomina repetición constructiva.
2.1.1. La experimentación en psicología.
Las principales críticas al método experimental vienen del entorno conductista:
- las situaciones creadas en el laboratorio son excesivamente artificiales. Si bien esto es
cierto, en esas situaciones se pueden estudiar las funciones y procesos que determinan la
conducta en su medio natural.
- no se controlan realmente todas las variables intervinientes.
- el experimentador aumenta la ambigüedad de los aspectos observables de la conducta.
Estas críticas han llevado al uso del informe introspectivo, aunque con algunas
limitaciones, dado su carácter privado.
* En relación a la validez interna, o existencia de relación entre las variables, se han
planteado dos críticas:
- el efecto experimentador.- determinadas características del experimentador pueden
influir en los resultados. Esto se corrige empleando varios experimentadores.
- las características de la demanda.- el sujeto suele contestar conforme a lo que cree
que se espera de él.
* En cuanto a la validez externa, o posibilidad de generalización de los resultados, se ha
solucionado mediante la reduplicación del experimento.

2.2. EL MÉTODO COMPARATIVO CORRELACIONAL.


Dado que no siempre es posible realizar un experimento para contrastar una hipótesis,
cuando se estudian variables psicológicas, como los constructos hipotéticos (ej. inteligencia),
que no pueden ser manipuladas por el experimentador, sino que se dan entre los sujetos de
una población, se utiliza el método comparativo correlacional.
Este método se basa en el coeficiente de correlación, que viene a determinar la relación
entre dos variables pero no su causa. Su uso es descriptivo, no explicativo y sirve para
establecer comparaciones.
Se emplea principalmente en psicología de la personalidad a través de la técnica
matemática del análisis factorial.
2.2.1. Técnica experimental frente a técnica correlacional.
La evolución de las técnicas experimentales y correlacionales ha dado lugar a dos
posturas en psicología: general y diferencial.
Para Cronbach:
- la psicología general establece las leyes generales de la conducta apoyándose en la
técnica experimental.
- la psicología diferencial busca las diferencias entre los individuos con la técnica
correlacional.
Toda ciencia pretende establecer principios explicativos generales para con ello poder
predecir. Si bien este objetivo queda claro en la psicología general, no lo está tanto en la
diferencial, si no se considera de alguna manera que el estudio de las diferencias lleva
implícito la búsqueda de reglas generales de agrupación conforme a esas diferencias.
La visión inicial de Cronbach se corrige en cuanto que la psicología diferencial pretende
relacionar una multitud de variables a través de técnicas multivariadas como el análisis
factorial y, con ello, establecer cierto número de constructos psicológicos.
Actualmente han surgido intentos de unificar ambas metodologías de trabajo a través de
los diseños cuasiexperimentales en donde se conjugan el control experimental con los
estudios de campo.
Partiendo de que la forma de conocer los hechos es principalmente descomponerlos en
sus elementos más simples:
- la técnica experimental ha logrado un auténtico control y conocimiento de la conducta.
- mientras que las técnicas multivariadas estudian situaciones complejas en sí mismas
por lo que no han logrado, hasta el momento, resultados definitivos.

2.3. EL MÉTODO OBSERVACIONAL.


Con este método se estudian los fenómenos tal y como ocurren en la naturaleza.
Se utiliza principalmente en psicología clínica, cuando se trata de variables que sólo
pueden observarse.
Existen dos clases de observación:
- pasiva: es la realizada en la fase de recogida de datos del método hipotético-deductivo.
- activa: se lleva a cabo de modo controlado y se denomina observación sistemática. Se
emplea en la contrastación.

3. LOS NIVELES DE ANÁLISIS DE LA MENTE Y LA CONDUCTA.

3.1. LOS ANÁLISIS DEL ESTUDIO DE LA MENTE Y LA CONDUCTA.


Dada la diferente complejidad psicológica de las conductas, se pueden establecer
distintos niveles en el análisis psicológico:
- personalidad.- cuando se estudian los rasgos estables del comportamiento de un
individuo estamos indagando a nivel del todo orgánico, esto es, su personalidad; de esta forma
se estudia la mente y la conducta en función de las características del sujeto.
- procesos psicológicos aislados.- pero si observamos algunas de sus estructuras
funcionales, estudiamos los procesos mentales y conductuales que siempre existen aunque sea
en mayor o menor grado.
- conductas elementales.- a veces nos fijamos en hechos puntuales, tanto mentales
como conductuales, que pueden darse o no en los individuos.
A lo largo del tiempo, las distintas escuelas psicológicas han puesto su objeto de estudio
en uno u otro de los niveles expuestos:
* el conductismo realiza un análisis de la conducta en elementos, aunque estos sean
complejos. La conducta así entendida es una respuesta observable en función de los estímulos
que la provocan, donde la relación E-R es lineal.
* la psicología cognitiva realiza un análisis de la actividad psicológica en procesos,
puesto que hace depender la respuesta de los procesos subyacentes y sus componentes
(descomposición recursiva).
El estudio de las dimensiones psicológicas se puede realizar de dos formas diferentes:
- buscar los principios que rigen la dimensión en que nos encontremos. Es el enfoque de
la psicología general.
- indagar las diferencias que se producen en los individuos en cuanto a una dimensión
en concreto. Este sería el enfoque diferencialista.

3.2. ANÁLISIS DE LA ACTIVIDAD PSICOLÓGICA.


En la actividad de los organismos, existen tres niveles de análisis:
a) el nivel psicológico.- se puede estudiar desde la perspectiva de la personalidad del
individuo como conjunto, sus procesos o sus elementos, pero en todos los casos esa actividad
psicológica es compleja y la realiza el individuo como un todo.
b) el nivel fisiológico.- la actividad de los organismos se estructura en órganos y
sistemas. Cuando esos órganos actúan como parte del organismo, como subsistemas, realizan
una actividad psicológica. Cuando actúan independientemente, esa actividad es
exclusivamente fisiológica.
c) el nivel bioquímico.- es el más básico y configura la parte estructural del nivel
fisiológico.
Los tres niveles se relacionan de manera que cada nivel superior abarca al anterior y
todos se afectan e influyen mútuamente entre sí.
Para saber dónde hay que intervenir, hay que distinguir en qué nivel se está
desarrollando la actividad del organismo.
El funcionalismo fue el primero en defender que sólo se podía llamar conducta a la
actividad compleja y distal del organismo y que la psicología sólo debía centrarse en el
estudio de estímulos y respuestas distales.
Se puede entender por conducta la actividad que realiza el organismo como un todo.

3.3. CONCLUSIONES METODOLÓGICAS.


Dentro de la psicología científica las posiciones metodológicas más frecuentes son:
- el conductismo radical.- que realiza un análisis funcional y lineal de la conducta en
estímulos y respuestas públicamente observables.
- el neoconductismo.- posición más abierta, que admite el organismo pero
considerándolo como variable intermedia al mismo nivel que las respuestas públicamente
observables.
- los psicólogos actuales del aprendizaje y los psicólogos soviéticos.- que realizan un
análisis funcional y circular de la conducta en estímulos y respuestas, e incluyen los procesos
mentales interiores y los fenómenos de conciencia privados.
- el planteamiento de los psicólogos cognitivos como Piaget.- que defienden el análisis
de la mente en procesos.
- los psicólogos cognitivos conexionistas.- que llevan a cabo el análisis mediante
simulación de modelos cibernéticos observables y verificables. El problema que presentan es
que no dejan de ser simulación del comportamiento.

TEMA 4: BASES ANTROPOLÓGICAS DE LA MENTE Y LA


CONDUCTA

1. BIOGÉNESIS DE LA MENTE Y LA CONDUCTA.

1.1. TEORÍAS EVOLUCIONISTAS.


La teoría tradicional, completamente contraria a la evolución, ha sido el fijismo, que
defendía que desde siempre han existido las distintas especies.
En el siglo XIX empiezan a aparecer las teorías evolucionistas y se toman en
consideración los términos de:
- filogénesis, como evolución de los seres vivos.
- ontogénesis, como la evolución de un individuo a la largo de su vida.
1.1.1. Lamarck, la adaptación gradual.
Lamarck planteó la primera teoría evolucionista basándose en dos principios para la
adaptación de las especies a su medio:
- la herencia de los caracteres adquiridos.- los cambios en el entorno llevan al animal,
en su necesidad de adaptación, al uso y desuso de ciertos órganos y, con ello, a su hipertrofia
o atrofia. Esos cambios, inicialmente pequeños, son heredables, y explicarían el paso de una
especie a otra.
- el principio de perfección.- la evolución se ha producido desde los seres más
imperfectos hasta las especies más perfectas.
1.1.2. Darwin, la selección natural.
Darwin defendió el origen de las especies basándose en cuatro principios:
- variaciones.- dentro de una misma especie se producen variaciones.
- el principio de la población.- la superpoblación se controla por medios naturales.
- la lucha por la vida.- se produce una lucha por la vida tanto dentro de una misma
especie como entre ellas.
- selección natural.- los individuos más favorecidos sobrevivirán a través de esa
selección natural.
1.1.3. La teoría sintética.
La teoría sintética surge a mediados del presente siglo por la confluencia de la
Genética, la Sistemática y la Paleontología. Esta teoría señala que:
TEMA 5: ASPECTOS CUALITATIVOS DE LA SENSORIALIDAD

1. LA NATURALEZA DE LA SENSIBILIDAD.
Los seres vivos han desarrollado dos tipos de respuesta:
- la motriz y la actividad glandular.
- la sensorial.
Ambas constituyen las bases de la conducta y la mente y configuran sus aspectos más
elementales y básicos.
La respuesta sensorial (o sensibilidad) es fundamentalmente adaptativa, lo que permite a
cada organismo captar la información que requiere del exterior para su propia supervivencia.
A través de la respuesta sensorial se capta la información necesaria del medio, por lo
que se considera una respuesta activa y no una mera recepción de estímulos físicos. Su misión
es traducir al código perceptual las señales de estímulos energía para posteriormente elaborar
la información.

2. EL PROBLEMA PSICOFÍSICO DE LA CUALIDAD SENSORIAL


Este problema consiste en explicar cómo se conectan estructuras y procesos físicos y
fisiológicos con experiencias sensoriales de diversa modalidad (cualidad sensorial) y de
diversa intensidad (cantidad sensorial).
El problema de la cualidad sensorial presenta, a su vez, dos aspectos:
- cómo se explica el fenómeno de las diversas modalidades de la sensibilidad.
- cuántas modalidades sensoriales hay.

2.1. LEY DE JOHANNES MÜLLER.


Müller fue el primero que intentó dar una explicación científica a la existencia de
distintas sensaciones y lo hizo a través de la “ley de la energía específica de los nervios
sensoriales” que dice: “la cualidad de la sensación depende del tipo de fibra nerviosa que se
excita y no de la clase de energía física que inicia el proceso”.
Wundt defiende una postura más apoyada desde la psicología y contraria a la anterior.
Para él: “todas las estaciones y vías centrales son fundamentalmente indiferentes; las
respuestas sensoriales son distintas porque los estímulos también lo son”.
Distintos psicofísicos llegaron a demostrar la ley de Müller en determinadas situaciones
experimentales y concretamente con el experimento del “frío paradójico” de Von Frey en el
que una aguja caliente producía la sensación de frío. De estos estudios se pudo concluir:
- que existe una cierta independencia de la cualidad sensorial con respecto a la
modalidad del estímulo.
- que no queda probado que la cualidad sensorial dependa exclusivamente de la fibra
excitada.
- que en el entorno natural hay una relación entre la modalidad del estímulo y la de la
sensación.
- al contrario de la ley de Müller, que diversas fibras nerviosas sirven a la misma
modalidad sensorial y, al contrario, que una misma fibra nerviosa puede servir a diversas
modalidades sensoriales.

2.2. EL ISOMORFISMO DE LA GESTALT.


La Gestalt, desde otra perspectiva, no se interesa por los objetos en sí, sino que,
tomando el modelo de la física, busca las fuerzas electromagnéticas que se producen
alrededor de los estímulos; le interesa su disposición dinámica. Así:
- la cualidad sensorial sólo dependería del campo de energía fisiológica.
- a la energía física del objeto le correspondería un campo de energía electrofisiológica
en el cerebro, lo que determinaría los diferentes sentidos.

2.3. LA SOLUCIÓN PSICOFISIOLÓGICA


Penfield y Rassmussen, a mediados de este siglo, defendieron la teoría fisiológica de las
“áreas de proyección”: “sólo se pueden justificar los distintos sentidos haciéndolos depender
de las áreas corticales de proyección”.
Actualmente se defiende la especialización funcional de la corteza visual.

3. CLASIFICACIÓN DE LAS MODALIDADES SENSORIALES


Se pueden considerar dos tipos de clasificaciones:
* La sensibilidad, según el tipo de información que suministra, se divide en:
- interoceptivas.- informan al organismo de su situación homeostática; actúan como
señales del medio interno. Se encuentran entre las respuestas emocionales simples y las
sensaciones superiores.
- propioceptivas.- informan de la situación en el espacio del organismo en general y son
necesarias para la retroalimentación. Se encuentran en la base de la conciencia refleja.
- exteroceptivas.- nos informan del ambiente externo. A esta clase pertenecen las cinco
modalidades sensoriales clásicas.
Según esta clasificación, en la sensibilidad se pueden establecer las siguientes
características:
a) las mismas sensaciones interactúan de distinta forma pudiéndose estimular e inhibir
mutuamente. Se denomina cinestesia al fenómeno de transferirse las características de una
modalidad sensorial a otra.
b) las sensaciones tienen un residuo de carácter emocional y motor.
* Considerando el nivel conductual, la actividad sensorial se divide en:
- protopáticas.- son sensaciones primitivas que informan al organismo de un modo
elemental. No presentan un carácter objetivo y diferenciado y están más vinculadas a las
reacciones emocionales que a la respuesta informativa en sí.
- epicríticas.- abarcan las sensaciones más elaboradas y diferenciadas, más próximas ya
al pensamiento simbólico. Son las propias del ser humano.

4. EL EJEMPLO DE LA SENSIBILIDAD VISUAL.


Las propiedades físicas del color del estímulo se corresponden con las propiedades
psicológicas de:
- matiz.- gama de colores del rojo al violeta.
- saturación.- pureza de un solo matiz.
- brillo.- cantidad de blanco que contiene el color.
La disminución de la luminosidad no supone una disminución gradual del brillo, sino
que depende del matiz, desapareciendo paulatinamente el rojo, el amarillo, el verde y el azul.
Se ha comprobado que durante la visión diurna o fotópica el ojo percibe mejor la luz
amarillo-verdosa, mientras que durante la noche, visión escotópica, es más sensible a la luz
verde-azul-
Existe una gama de intensidad luminosa que permite la sensibilidad visual sin color a la
que llamamos intervalo acromático.
Dentro de la sensibilidad fotópica los fenómenos más conocidos son:
- la mezcla de colores.- hay que distinguir dos tipos:
a) la mezcla de luces o mezcla aditiva de colores (el azul y el amarillo dan la sensación
de gris).
b) la mezcla de pinturas o mezcla sustractiva de colores (el azul y el amarillo dan la
sensación de verde).
- las postimágenes.- se producen porque la respuesta a la estimulación visual perdura
más tiempo que su actividad. Pueden ser:
a) postimagen positiva: cuando continúa la sensación visual por un breve tiempo sin
ningún cambio.
b) postimagen negativa: cuando lo que continúa es la sensación del color
complementario.
- contraste.- la modalidad sensorial producida por un estímulo varía en función del
fondo donde se presenta.
- color inducido.- un campo incoloro toma el color complementario del color del fondo
que lo rodea.
- las experiencias acromáticas.- son una serie de fenómenos en los que no se produce la
correspondencia entre las propiedades físicas del estímulo y las psicológicas.
TEMA 6: EL ESTUDIO CUANTITATIVO DE LA
SENSORIALIDAD (I).

1. LOS MÉTODOS PSICOFÍSICOS.


La psicofísica es la parte de la psicología que se ha centrado en el estudio de las
relaciones cuantitativas entre el estímulo físico y la respuesta sensorial a través del estudio de
las leyes psicofísicas y la determinación de los umbrales sensoriales.
Hay que distinguir entre la psicofísica clásica, en donde se produce una
correspondencia entre el continuo estimular (físico) y el continuo de respuesta (sensación), y
la psicofísica moderna en donde no se mantiene ese paralelismo y se introducen otros factores
determinantes de la sensación.

1.1. EL ENFOQUE DE LA PSICOFÍSICA CLÁSICA O FECHNERIANA.


Desde este enfoque, el juicio que emite el sujeto sobre su sensación coincide con el
valor de la sensación, por lo que sólo se está interesado en el estudio del estímulo y la
respuesta sensorial.
En la experimentación se utilizaban sujetos entrenados para asegurarse que la respuesta
sensorial se emitía exclusivamente en función del estímulo. Se consideraba “error del
estímulo” cuando la respuesta se debía a algún tipo de información adicional, por lo que se
despreciaban esos datos.
La psicofísica clásica se interesó por el estudio de los umbrales sensoriales que vienen a
ser “los márgenes” de nuestra sensación; esto es, existen determinadas magnitudes del
estímulo tan bajas que ya no provocan sensación (umbral absoluto) y, por el contrario, otras
tan altas que lo que producen no es sensación sino dolor (umbral terminal).
Además de estos límites, se producen también cambios en la intensidad del estímulo
que provocan que lo sintamos más o menos. A estos cambios mínimos en la intensidad del
estímulo que nos hacen que notemos una diferencia justamente perceptible (d.j.p.) es a lo que
se denomina umbral diferencial. Su valor es estadístico.
La psicofísica se ha centrado, principalmente, en el estudio del umbral absoluto.
Ese valor mínimo del estimulo cambia en función del sujeto y las circunstancias, por lo
que no existe un punto único en todos los individuos, sino que se sitúa en una zona de
transición, que se define y establece estadísticamente.
Los tres métodos psicofísicos más utilizados para el estudio de los umbrales son:
- el método de los límites. Se caracteriza por presentar al sujeto series alternativas de
estímulos donde éstos aparecen en orden creciente y decreciente.
- el método de los estímulos constantes. En él los estímulos se presentan al azar por lo
que no se encuentran influidos por el orden de la serie.
- el método del error promedio. El experimentador o el sujeto manipulan el estímulo
disminuyendo o incrementando su intensidad hasta que se produce un cambio de sensación.
Estos métodos tienen mucha importancia en el campo de la psicología aplicada.

1.2. EL ENFOQUE DE LA PSICOLOGÍA MODERNA. MÉTODOS PSICOFÍSICOS


DIRECTOS.
En la psicofísica fechneriana la medición de la sensación se realizaba indirectamente a
través de las magnitudes físicas, por eso se les denominaba métodos indirectos.
Frente a los métodos psicofísicos indirectos, Stevens planteó hacer medidas directas
sobre el continuo de sensación y, para ello, creó los métodos psicofísicos directos, que se
basan fundamentalmente en emparejamientos de estímulos.
Los emparejamientos no se hacen con un patrón de medida, sino que se utilizan en
referencia a unas cantidades arbitrariamente elegidas.-
Los principales métodos son:
- emparejamiento de magnitudes: el sujeto debe ajustar un estímulo manipulándolo con
una magnitud previa. Si el estímulo se tiene que ajustar a una escala de números naturales, se
llama estimación de magnitudes; si la magnitud es la sensación producida por otro estímulo
de diversa modalidad sensorial, lo llamamos emparejamiento de magnitudes de modalidad
cruzada.
- emparejamiento de razones: se presenta al sujeto, como modelo, una pareja de
estímulos que guardan determinada relación y él debe emparejar otros dos estímulos que
cumplan esa relación.
- emparejamiento de intervalos: se emplea cuando el continuo sensorial forma una
escala cualitativa. Se trata de ajustar dos estímulos de modo que la diferencia entre ellos sea
igual a una diferencia dada.
TEMA 7: LA CANTIDAD SENSORIAL (II). LEYES
PSICOFÍSICAS Y TEORÍAS ACTUALES.

1. INTRODUCCIÓN.
Una de las partes más importantes de la psicología es el análisis funcional entre los
estímulos físicos y las respuestas interiores, lo que ha dado lugar al establecimiento de las
leyes psicofísicas.
El estudio de los estímulos y las respuestas públicamente observables ha permitido el
conocimiento de los condicionamientos sensomotrices.
Pero también se puede estar interesado en conocer cómo estímulos exteriores provocan
respuestas interiores, que serían experiencias subjetivas sólo accesibles mediante informes
introspectivos, como es el caso de las sensaciones.

2. LAS CONSTANTES.
Las leyes psicofísicas parten del hallazgo de una constante.
Weber, fundador de la psicofísica, fue el primero en establecer una constante en la
sensorialidad cuando relacionó el incremente de la intensidad de un estímulo cuando se
produce una diferencia sensorial justamente perceptible ( E) o umbral diferencial, es decir,
que percibimos cambios relativos –no absolutos- en la intensidad del estímulo.

3. LEY DE WEBER.
Weber descubrió que la fracción E/E era igual a una constante para los diferentes
valores de la intensidad del estímulo, dando lugar a la llamada ley de Weber K = E/E,
donde K = constante de Weber.
La ley de Weber dice : “todo estímulo requiere ser aumentado en una proporción
constante de su magnitud, para que se produzca un cambio de sensación”.
Genéricamente lo que se indica es que el umbral diferencial aumenta cuando el estímulo
aumenta, y es siempre constante para cada modalidad sensorial (visión, audición,...).
La principal dificultad de esta ley es que sólo se cumple para valores intermedios del
estímulo; esto es, cuando la intensidad del estímulo se corresponde con valores próximos al
umbral absoluto, el incremento del estímulo crece en mayor proporción que el estímulo, y la
ley no se cumple.
Para corregir este defecto se añadió un factor corrector consistente en el valor “a”, que
es una pequeña cantidad constante que se relaciona con el valor del estímulo, quedando la ley
de Weber: K = E/E + a.
Cuando el estímulo es pequeño, “a” tiene peso suficiente para afectar al valor de la
fracción pero no en intensidades medias del estímulo.

4. LEY DE FECHNER.
Fechner, partiendo de la ley de Weber, intentó medir la experiencia sensorial a través de
las djp. Así, a través de la acumulación de djp se podía medir el continuo psíquico y
relacionarlo con el continuo físico, por lo que postuló la igualdad de las djp para poderlas
utilizar como patrón de medida.
Para elaborar su ley partió de un principio (la ley de Weber) y de un postulado (la
igualdad de las diferencias justamente perceptibles).
La ley dice: “la intensidad de la sensación es proporcional al logaritmo de la
intensidad del estímulo”. La formulación matemática es S = K loge E + C.
Con esta formulación, Fechner defiende que si la intensidad de la sensación crece en
progresión aritmética, la intensidad del estímulo lo hace en progresión geométrica.
Hay que hacer tres matizaciones a esta ley:
- mide la sensorialidad de modo indirecto ya que permite una medida de la sensación
tan sólo por la referencia de acumulación de djp a las magnitudes físicas del estímulo.
- sus mediciones se realizan en escalas de intervalos, no en escalas de razón.
- la igualdad de las djp ha sido siempre cuestionada por la psicofísica moderna.
La psicofísica moderna establece dos críticas:
- que la igualdad de las djp no es cierta, ya que las djp no son siempre iguales.
- la ley sólo se cumple para valores intermedios del estímulo al igual que ocurría con la
ley de Weber.

5. LA PSICOFÍSICA MODERNA.
Stevens, partiendo de la ley de Weber, mantiene que las djp son proporcionales a la
magnitud del estímulo y no independientes, como postulaba Fechner.
La ley de Stevens o Ley General de la Psicofísica dice: “el cambio de la sensación es
proporcional a la magnitud del estímulo percibido, antes del cambio de sensación”. Su
formulación matemática es: S = C Ek. Establece que la relación entre los estímulos y las
sensaciones varía en función de un exponente, que es indicativo de la modalidad del atributo
psíquico de que se trate y de la magnitud del estímulo.
Hay que hacer dos consideraciones de la ley de Stevens:
- las leyes de Weber y Fechber quedan reducidas a un caso particular de la Ley General
de la Psicofísica; sólo se cumplen para K< 1, lo que significa que la sensación crece más
lentamente que el estimulo. Pero si K = 1 la sensación es directamente proporcional el
estímulo y si K > 1 la ley se invierte, puesto que la sensación aumenta más rápidamente que
el estímulo.
- las djp no son consideradas iguales, por lo que no se pueden tomar como patrón de
medida.
La psicofísica moderna adopta un nuevo enfoque y construye métodos directos para
medir la subjetividad a través de las escalas subjetivas.
Stevens pretende construir escalas subjetivas en juicios de razón, intentando establecer
unidades de medidas fundamentales de los atributos psíquicos.

6. EL PROBLEMA DE LAS DIMENSIONES SUBJETIVAS.


El problema radica en si se puede construir un sistema de unidades fundamentales de
medida en psicología; para ello haría falta encontrar medidores de las dimensiones
psicológicas, como existen en la física.
En psicología esas mediciones se hacen a través de indicadores que tienen su correlato
con la dimensión psicológica. Es muy importante que esos indicadores estén realmente
relacionados con la dimensión que pretenden medir; es decir, que estén calibrados.
Por ahora, no hay unidades de medida fundamentales.

7. DIRECCIÓN DE LA PSICOFÍSICA CONTEMPORÁNEA.


La psicofísica contemporánea no defiende un sistema de unidades psicofísicas
fundamentales porque supone que no hay relaciones invariables entre ellas, según diversos
sujetos.
Considera a los organismos como artificios de medida y pretende revelar su naturaleza
más que encontrar un sistema estructural de medidas.
Se buscan escalas que indiquen cómo el sujeto traduce la intensidad física de los
estímulos sensoriales en medidas del sistema nervioso.
TEMA 8: LA TEORÍA DE LA DETECCIÓN DE SEÑALES.

1. INTRODUCCIÓN.
La psicofísica clásica pretendía establecer una medición de la sensorialidad. En la
Teoría de Detección de Señales (TDS) lo que se busca es el estudio psicofísico del
rendimiento sensorial humano, alejándose del estudio de la sensación.
La TDS parte de dos supuestos:
- conocer qué criterios utiliza el sujeto para detectar un estímulo.
- dos tipos de estímulos:
a) Señal, en toda situación estimular se presenta siempre una señal bajo un fondo de
ruido: Señal + Ruido (S).
b) Ruido sólo (R), lo que implica admitir que siempre hay sensación, lo que importa
ahora son las posibilidades de los diferentes valores de sensación, no el umbral.
Según esto lo que interesa a la psicofísica es el juicio del sujeto que no depende sólo de
la sensación sino, además, de las expectativas y las motivaciones del sujeto.
Genéricamente, en una situación experimental se presentan una serie de señales y de
ruidos y el sujeto debe de responder sobre su detección.

2. PRINCIPALES PARÁMETROS.
2.1. Probabilidades a priori. El experimentador determina previamente el número de
veces que va a aparecer la S y el R. A esa distribución de la S y el R se denomina
“probabilidades a priori” y se representan siempre en proporciones: P(S), P(R).
2.2. Razón de probabilidades a priori. Es el cociente de las dos probabilidades
anteriores P(R)/P(S).
Ante la situación experimental el sujeto puede emitir dos respuestas:
a) decir Sí cuando cree detectar la señal.
b) decir No cuando cree que no se ha presentado.
Esto da lugar a cuatro posibles clasificaciones de las respuestas:
- aciertos: el sujeto dice Sí y había aparecido la señal.
- falsa alarma: el sujeto dice Sí y no se había presentado la señal.
- fallo: el sujeto dice No pero la señal había sido presentada.
- rechazo correcto: dice No y no se había presentado la señal.
2.3. Probabilidades condicionadas. Son las probabilidades de cada una de las
respuestas posibles.
2.4. Razón de verosimilitud –Ls-. Puesto que lo que interesa en la TDS es la detección
de la señal por parte del sujeto, para la obtención de este criterio sólo se consideran las
respuestas Sí, es decir, los aciertos y las falsas alarmas. Ls = P(Sí/S) / P(Sí/R).
La TDS parte de que la respuesta sensorial se encuentra determinada por el criterio de
decisión del sujeto, determinado, a su vez, por sus motivaciones y expectativas. Para crear
experimentalmente esos estados motivacionales en los sujetos, se establecen recompensas
diferenciales a sus respuestas según una matriz de pagos.
2.5. Matriz de pagos. Es una matriz de confusión en donde el experimentador establece
las consecuencias de cada una de las respuestas posibles. Según cómo se administren las
recompensas diferenciales será la actuación del sujeto.
2.6. Razón de consecuencias. Es un cociente donde se sitúan por un lado las ganancias
y pérdidas asociadas al ruido y, por el otro, las ganancias y pérdidas asociadas a la señal.
2.7. Parámetro  . Consiste en la multiplicación de la razón de consecuencias y la de
probabilidades a priori. Si no se establecen recompensas diferenciales, el parámetro
dependería de la razón de probabilidades a priori.
2.8. Regla de decisión. Sirve para decidir si el sujeto ha detectado la señal.:
- se dice que el sujeto Sí ha detectado la señal cuando el valor de la razón de
verosimilitud es igual o mayor que el parámetro  (Ls >  ).
- se dice que el sujeto No ha detectado la señal, cuando el valor de la razón de
verosimilitud es menor que el parámetro  (Ls <  ).
Para representar gráficamente esta decisión se tiene que hallar:
* Parámetro de detectabilidad –d’-. Es la distancia entre la distribución del ruido y la
distribución de la señal.
- cuanto más se separen estas distribuciones más se detectará la señal.
- el criterio de decisión se deriva, por tanto, de las probabilidades a priori, de los
resultados de la matriz de pagos y del objetivo que se establezca el sujeto.
- la distancia entre ambas curvas se calcula estadísticamente.
* Curva ROC. Permite la representación gráfica de la detectabilidad. Es una curva en la
que se consideran sólo los aciertos y las falsas alarmas.
- a medida que la distribución de la S y la del R se distancian, el parámetro d’ va
aumentando, ya que se incrementan los aciertos y se reducen las falsas alarmas.
- cuanto mayor sea el parámetro d’, la curva ROC presentará mayor convexidad.
Es aprendizaje porque consiste en la aparición de una nueva conducta que se produce
como fruto de la experiencia.
Los cuatro elementos del condicionamiento clásico son:
- el estímulo incondicionado (EI).- es cualquier estímulo que antes de una conexión
asociativa ya produce una respuesta (o reflejo innato) consistente y medible.
- el estímulo condicionado (EC).- es aquel estímulo neutro que con anterioridad a la
conexión asociativa con el EI, no produce, de ningún modo, la respuesta condicionada.
- la respuesta incondicionada (RI).- es aquella que de un modo reflejo, medible y
regularmente es producida por el estímulo incondicionado.
- la respuesta condicionada (RC).- es la que se adquiere fruto de la conexión asociativa
y que es semejante a la RI aunque de menor intensidad; por este motivo, es muy importante
que esté claramente especificada y pertenezca al mismo sistema efector que la RI.
El condicionamiento clásico es llamado modelo E-E porque se produce por conexión de
un estímulo con otro estímulo (EC-EI).
El condicionamiento clásico presenta dos subparadigmas:
- condicionamiento excitatorio: se aprende que al estímulo condicionado le sigue el
incondicionado, produciéndose una respuesta condicionada. Presenta dos formas:
- condicionamiento apetitivo, cuando el estímulo incondicionado es agradable (ej.
comida),
- condicionamiento de defensa, cuando el estímulo incondicionado es aversivo o
desagradable (ej. descarga eléctrica)
- condicionamiento inhibitorio: se aprende que al estímulo condicionado no le sigue el
incondicionado y, por tanto, difícilmente se producirá una respuesta.
Se han establecido tres técnicas que han definido a la RC con tres tipos de respuesta:
apetitiva, de defensa y psicofisiológica.
a) el condicionamiento salivar, respuesta apetitiva.
b) el condicionamiento de la membrana nictitante, respuesta de defensa.
c) el condicionamiento de respuestas psicofisiológicas, respuesta psicofisiológica.
Las principales variables que influyen en la adquisición del condicionamiento son:
- la relevancia causal, que nos indica qué estímulos son más fáciles de condicionar
entre sí.
- la experiencia previa con los estímulos, que puede influir en la fuerza con que se
produce el condicionamiento. De esta variable se destacan dos fenómenos importantes:
a) la inhibición latente; producida por la exposición repetida al EC aislado.
b) la irrelevancia aprendida; producida por la exposición previa del EC y del EI sin
ningún tipo de conexión entre ellos.
El condicionamiento clásico es un proceso de aprendizaje en el que se produce la
asociación entre el EC y el EI. Sin embargo, no toda asociación entre dos estímulos constituye
un proceso de condicionamiento clásico, sino sólo aquellas en las que se producen relaciones
funcionales entre el EC y la RC.
A este tipo de condicionamiento se llama también aprendizaje respondiente, porque lo
que se condiciona son respuestas reflejas emitidas por el sujeto.
La presentación de los estímulos intervinientes en un experimento de condicionamiento
clásico se puede hacer según cuatro procedimientos:
1. simultáneo: el EC se presenta al mismo tiempo que el EI.
2. de demora: el EC se presenta justo antes del EI.
3. de huella: existe un intervalo de tiempo entre la aparición del EC y el EI.
4. hacia atrás: el EC aparece después del EI.
Los procedimientos de huella y de demora son los que presentan una asociación más
intensa y producen una mayor facilidad en el establecimiento del condicionamiento.

3. TEORÍAS DEL CONDICIONAMIENTO CLÁSICO.

3.1. TEORÍA DE LA SUSTITUCIÓN DEL ESTÍMULO.


Propuesta por Pavlov, indica que la asociación entre el EC y el EI consiste en una
sustitución de estímulos en la cual el EC se convierte en una señal del EI, por lo que
desencadena automáticamente una respuesta semejante a la RI. Pavlov da una justificación
neurológica a su teoría.

3.2. TEORÍA DE LA ANTICIPACIÓN.


Aboga por que el nexo asociativo consistiría en la facilitación o anticipación que
suministra la respuesta al EC para la aparición de la respuesta al EI.

3.3. TEORÍA MODERNA DE LA SUSTITUCIÓN DEL ESTÍMULO.


Según esta teoría de la sustitución del estímulo, la teoría de Pavlov presentaba algunas
dificultades:
- la RC no es idéntica a la RI, sino sólo semejante; por tanto, no explica bien la
sustitución.
- la sustitución de un estímulo por otro no se puede realizar siempre.
- los mecanismos neurológicos a los que hace referencia Pavlov, son más complicados
de lo que él postulaba.
La moderna teoría de la sustitución del estímulo, de carácter no neurológico, señala que
lo que los animales aprenden, además de la asociación EC-EI, es una representación cognitiva
del EI. Por este motivo, las actuales interpretaciones cognitivas del condicionamiento clásico
cuestionan la contigüidad como base del condicionamiento.
TEMA 13: EL CONDICIONAMIENTO CLÁSICO. PARÁMETROS
Y LEYES.

1. LA MEDIDA DE LA RESPUESTA CONDICIONADA.


Al estudiar el condicionamiento clásico es necesario medir y especificar la respuesta
condicionada (RC).
Los principales parámetros de medida de la RC son:
- amplitud (o intensidad): es la extensión de la respuesta.
- latencia: es el periodo de tiempo desde la presentación del EC hasta la aparición de la
RC.
- periodo de reclutamiento: es el tiempo entre la iniciación de la RC y el pico de su
amplitud.
- número de ensayos: es el número de apareamientos EC-EI necesarios para que la RC
alcance un criterio establecido previamente.
- frecuencia: se corresponde con el porcentaje de RCs en relación al número de ensayos
totales realizados.
- resistencia a la extinción: número de presentaciones del EC, sin el EI, para que la RC
no aparezca.
Para especificar la RC, hay que diferenciarla de las respuestas alfa, empleando un
intervalo entre el EC y el EI lo suficientemente largo, ya que éstas tienen una latencia menor
que la RC; de las respuestas de línea base y de las respuestas beta o pseudocondicionadas,
utilizando el procedimiento de control no apareado, que consiste en presentar, en el grupo de
control (grupo que no se somete a la variable experimental), el mismo número de veces el EC
aislado y el EI aislado, que el número de veces que se presentan apareados EC y EI en el
grupo experimental. También se puede realizar este tipo de procedimiento de control
sometiendo al grupo experimental sólo a una fase de preadquisición, donde se le presentan
ambos estímulos aisladamente.

2. RELACIONES EMPÍRICAS.

2.1. INTERVALO ENTRE ESTÍMULOS.


Es el lapso de tiempo entre la presentación del EC y la presentación del EI.
Experimentalmente, a mayor intervalo, menor es la intensidad del condicionamiento. Este
parámetro introduce un problema teórico: la contigüidad entre el EC y el EI, que algunos
autores han intentado explicar:
- Pavlov lo explicó fisiológicamente, indicando que la contigüidad ocurre entre la
excitación neural que produce el EC y la que produce el EI.
- Guthrie lo explicó conductualmente, considerando que el verdadero EC son las
reacciones propioceptivas que tal estímulo provoca en el organismo.
- Hull, apoyado en la teoría pavloviana, presentó la huella del estímulo para resolver el
problema. Para él, el intervalo óptimo para cualquier condicionamiento es de 0’5 segundos.
Se ha demostrado que este intervalo no es fijo, sino que depende del sistema de respuesta que
utilicemos.

2.2. INTERVALO ENTRE ENSAYOS.


Es el tiempo que transcurre de un ensayo de condicionamiento a otro. Algunos autores
sostienen que parece no tener efecto sobre los resultados del condicionamiento; en cambio,
otros defienden que los periodos más largos entre ensayos son más efectivos para la obtención
del condicionamiento.

3. LEYES DEL CONDICIONAMIENTO CLÁSICO.


Se establecen cuatro leyes o principios básicos comunes para todos los
condicionamientos.

3.1. ADQUISICIÓN.
Es el proceso más importante del condicionamiento clásico, donde se aprende a asociar
dos estímulos para elicitar una nueva respuesta. Su representación gráfica recibe el nombre de
curva desacelerativa de aprendizaje.
Dentro de este proceso, se producen dos importantes fenómenos que plantean la
distinción entre ejecución y aprendizaje:
- la recuperación espontánea: consiste en la reanudación de una respuesta, un periodo
de tiempo después de haber sido ésta extinguida.
- el recondicionamiento: consiste en que la curva de adquisición de una respuesta no
parte de cero para aquellos sujetos que la adquirieron con anterioridad y luego les fue
extinguida, sino que comienza con un cierto nivel, lo cual supone un ahorro en la adquisición.

3.2. EXTINCIÓN.
Es una función que relaciona la intensidad de la RC con el número de veces en que se
presenta el EC aisladamente, sin ser apareado con el EI.
Pavlov señaló que la extinción no elimina el condicionamiento, sino que produce otra
fuerza igual y opuesta a la provocada por la EC, a la que llamó inhibición, la cual puede ser
de dos tipos:
- externa o incondicionada.- es la producida por la aparición súbita de un estímulo
ajeno, fuerte o insólito, que interrumpe por breve tiempo los procesos de adquisición o
extinción.
- interna o condicionada.- es la producida por la falta de apareamiento sistemático del
EC con el EI. También se conoce como condicionamiento inhibitorio.
Existen otros procedimientos para lograr la inhibición de la respuesta condicionada,
como la inhibición diferencial y la inhibición de demora.

3.3. GENERALIZACIÓN.
Es un proceso por el que estímulos cercanos (en semejanza o en cantidad) al EC
adquieren también la propiedad de provocar la RC.

3.4. DISCRIMINACIÓN.
Es el proceso por el que se delimita el campo de estímulos cercanos o próximos al EC, a
los que responde el sujeto. Es inverso al proceso de generalización.

4. OTROS MODELOS DE CONDICIONAMIENTO CLÁSICO.


Algunos modelos de condicionamiento clásico no realizan conductas puramente
respondientes, sino que intervienen como componentes en procesos de adquisición de
conductas operantes:
- el paradigma de la supresión condicionada, donde se da una respuesta emocional
condicionada (REC) que se mide por la supresión que se produce en una conducta operante.
- el automoldeamiento (o autoshaping), que produce un efecto opuesto al anterior,
aumentando la frecuencia de varias respuestas operantes en lugar de suprimirlas.
Existen algunos casos especiales de condicionamiento clásico que debemos mencionar:
- el condicionamiento semántico, en el que el significado de una palabra o frase se
condiciona para provocar una respuesta refleja.
- el condicionamiento interoceptivo, en el que el EC y/o el EI son internos al
organismo, siendo responsable este tipo de condicionamiento de muchos padecimientos
psicosomáticos.
- el condicionamiento de la adquisición de aversión al sabor, que parece contravenir la
ley de la contigüidad, ya que el intervalo entre estímulos que utiliza es excesivamente largo
(de hasta 24 horas).
- el condicionamiento de la respuesta compensatoria, en el que la respuesta que se
aprende es una respuesta que compensa a la incondicionada.
En la vida, lo frecuente no es la intervención del condicionamiento clásico ante
estímulos aislados o puntuales, sino la constitución de continuos condicionamientos clásicos a
estímulos compuestos.
Fueron los psicólogos soviéticos los primeros que empezaron a estudiar el
condicionamiento a estímulos compuestos como condicionamiento configuracional, en el
que el organismo responde al patrón estimular como un todo y no a los componentes
estimulares aislados.
Las diferencias de este tipo de condicionamiento con respecto al que se condiciona al
sujeto a un solo EC, son:
- su adquisición es más costosa, requiriendo mayor número de ensayos.
- su generalización es mayor que la obtenida por cada uno de los componentes por
separado.
- se extingue más difícilmente.
Son muchas las aplicaciones y explicaciones que el condicionamiento clásico ha hecho
sobre las conductas humanas. Por ejemplo, muchas conductas neuróticas se deben a miedos
aprendidos por condicionamiento clásico y el modo de eliminar dichas conductas sería
extinguiendo tales condicionamientos.
TEMA 14: EL CONDICIONAMIENTO OPERANTE.
PARADIGMA Y MODELOS.

1. EL ENSAYO Y ERROR. LA LEY DEL EFECTO.


En el condicionamiento clásico la causalidad es lineal; el refuerzo (EI) aparece antes de
la RC. Sin embargo, en el condicionamiento operante la causalidad es circular; el refuerzo
aparece después de la RC, lo cual supone un nivel superior de aprendizaje.
Thorndike señaló que lo que se producía en el condicionamiento era una conexión a
nivel neural entre un estímulo y una respuesta (E-R), en lugar de una conexión entre
estímulos. Después, enunció la ley del efecto indicando que “cuanto mayor es la satisfacción
o desagrado que acompaña a la conducta del sujeto, mayor será el fortalecimiento o
debilitación del vínculo (conexión E-R).
Esta ley fue muy criticada por Skinner, ya que no le interesaban las conexiones neurales
en el cerebro, sino la respuesta operante, entendida como acto del organismo que produce un
efecto específico en el ambiente.
Si para Thorndike aprender es reforzar la conexión E-R, para Skinner es aumentar la
probabilidad de que el organismo emita la respuesta. Según éste, lo que se refuerza no es la
conexión E-R, sino la respuesta operante; así, transforma la ley del efecto en la ley del
refuerzo.

2. ¿CONDICIONAMIENTO INSTRUMENTAL O CONDICIONAMIENTO


OPERANTE?
Se llama condicionamiento instrumental porque convierte a la respuesta (conducta) en
un instrumento para conseguir una consecuencia, ya que la respuesta es voluntaria.
Thorndike usó la técnica de los ensayos discretos (emitir una sola respuesta en cada
ensayo). En cambio, Skinner ideó la técnica del operante libre (emitir cuantas respuestas se
deseen en cada ensayo), permitiendo estudiar una conducta de una manera continua, a través
de registros acumulativos, facilitando la división de la misma en unidades significativas, que
igualmente se pueden medir.
De este modo, las respuestas operantes se llegaron a utilizar habitualmente en el estudio
del condicionamiento instrumental, y éste pasó a denominarse condicionamiento operante.

3. REFORZADOR, REFUERZO Y REFORZAMIENTO.


* Reforzador: estímulo apetitivo o premio (ej. comida) que aparece, o estímulo aversivo
(ej. shock eléctrico) que desaparece cuando se ejecuta una conducta operante.
* Refuerzo: situación o procedimiento experimental de presentar o hacer desaparecer un
reforzador si se emite una conducta determinada. Puede ser de dos tipos:
- positivo, si se da una respuesta y aparece el reforzador (contingencia positiva),
- negativo, si se da una respuesta y desaparece el reforzador (contingencia negativa).
* Reforzamiento: proceso interior de fortalecer la conexión entre un estímulo y la
respuesta.

4. CONTIGÜIDAD Y CONTINGENCIA.
Si el condicionamiento clásico es expresado en términos de contigüidad
(simultaneidad), el condicionamiento operante se expresa en términos de contingencia
(probabilidad). Así tenemos que:
- dos sucesos son contiguos cuando ocurren simultáneamente o en rápida sucesión
dentro de un determinado periodo temporal.
- dos sucesos son contingentes cuando ocurren conjuntamente según una cierta
probabilidad.

5. EL PARADIGMA DEL CONDICIONAMIENTO OPERANTE.


Es conocido como paradigma E-R o aprendizaje por relación de un estímulo con una
respuesta.
En el paradigma del condicionamiento operante se pueden realizar sólo dos acciones:
- Reforzar: aumentar la probabilidad de que se vuelva a emitir una respuesta.
- Castigar: disminuir la probabilidad de que se vuelva a emitir una respuesta.
Para determinar los modelos del condicionamiento operante hay que conjugar dos
variables: la contingencia respuesta-reforzador (positiva o negativa) y la naturaleza del
reforzador (agradable –premio- o aversivo –nocivo-).
Según esto, se establecen cuatro modelos del condicionamiento operante:
* Condicionamiento de recompensa (refuerzo positivo): es el más tradicional y típico.
Su función es aumentar el vigor de una respuesta por ser ésta contingente con un premio.
* Castigo (castigo positivo): es el condicionamiento con estímulo aversivo presente. Su
función es la desaparición de una respuesta por ser ésta contingente con un estímulo aversivo.
* Condicionamiento de evitación (refuerzo negativo): se refuerza la aparición o vigor
de una conducta negativamente. Presenta dos modalidades:
- evitación: la emisión de la respuesta hace que no aparezca el estimulo aversivo.
- escape: la emisión de la respuesta hace que desaparezca el estímulo aversivo.
* Condicionamiento de omisión (castigo negativo): la emisión de la respuesta es
contingente con la ausencia de premio. Su función es la debilitación o desaparición de la
respuesta.

6. VARIABLES EN EL CONDICIONAMIENTO OPERANTE.


- El reforzador: es cualquier estímulo apetitivo o aversivo que hace aumentar la
probabilidad de emisión de una respuesta o el vigor de la misma.
- Skinner lo define en función de su efecto sobre la respuesta contigua anterior.
- La respuesta: es una conducta espontánea y activa, no una conducta respondiente y
pasiva.
- no todas las respuestas pueden condicionarse; existen limitaciones filogenéticas.
- el concepto de preparación de Seligman indica que la conducta que tiene preparación
filogenética se condiciona con mucha mayor facilidad.
- El estímulo discriminativo: es una clave explícita que se destaca en la situación,
indicando únicamente cuando está o no disponible el refuerzo. No provoca la respuesta, sólo
informa de ella.
- El tiempo de privación: es la variable más utilizada para motivar al animal, siendo
necesaria para que un estímulo reforzante cumpla con su condición de ser refuerzo (ej. privar
de alimento unas horas).

7. LA MEDIDA DE LA RESPUESTA EN EL CONDICIONAMIENTO


OPERANTE.
La medida de la respuesta se realiza fundamentalmente por dos parámetros:
- tasa de respuestas en un periodo de tiempo dado.
- latencia de la respuesta.
Existen otros parámetros como número de ensayos, intervalo entre ensayos, magnitud y
demora del refuerzo, etc.

8. PROGRAMAS DE REFUERZO O CASTIGO.


Son una pauta para presentar el premio o el estímulo aversivo. Los más tradicionales
son:
* Programa de razón fija (RF): se refuerza la primera respuesta después de emitir un
número predeterminado de ellas.
* Programa de razón variable (RV): se refuerza según un índice de razón, aunque éste
no es fijo, sino una serie aleatoria con una razón media definida.
* Programa de intervalo fijo (IF): se refuerza la primera respuesta que ocurre después
de un intervalo fijo de tiempo transcurrido a partir del último refuerzo suministrado.
* Programa de intervalo variable (IV): se refuerza la primera respuesta después de
transcurrido un tiempo, cuya duración es aleatoria (variable), siendo su valor medio constante.

9. PROGRAMAS DE REFUERZO CONCURRENTES Y PROGRAMAS DE


REFUERZO ENCADENADOS. EL ETUDIO DE LA CONDUCTA DE
ELECCIÓN.
El estudio experimental de los programas de refuerzo ante situaciones complejas se
realiza a través de la conducta de elección, que es aquella en que se deja al animal elegir entre
varias opciones que llevan cada una a un programa de refuerzo por un tiempo determinado;
una vez finalizado éste, se le permite una nueva elección.
Se han utilizado, fundamentalmente, dos programas de refuerzo ante situaciones
complejas:
* Programas encadenados: se presentan al animal varias alternativas; cuando escoge
una, la conducta del organismo queda encadenada durante un tiempo a un programa de
refuerzo. Con este tipo de programas se ha puesto de manifiesto la importancia que tiene la
inmediatez en la obtención del refuerzo, ya que el animal elige este programa aunque con
otros se dispensaran, a la larga, más reforzadores.
* Programas concurrentes: se permite al organismo escoger entre alternativas siempre
presentes, estando cada una de ellas sustentada por un programa de refuerzo.
Los programas concurrentes permiten estudiar la elección más frecuente que hace el
animal y la influencia que tiene el programa de refuerzo en dicha elección, midiendo la tasa
relativa de respuestas y la tasa relativa de refuerzos.
Para la ley de la igualación de Hernstein, la conducta de elección se realiza según la
tasa relativa de refuerzos; así, la tasa relativa de respuestas a una alternativa es igual a la tasa
relativa de refuerzos que se recibe en esa alternativa. Para explicar esta ley, existen dos
hipótesis:
* la hipótesis de la optimización del refuerzo, que puede ser:
- optimización global (molar).- se escoge distribuyendo las respuestas entre varias
alternativas, de manera que globalmente, en un periodo de tiempo, se obtenga la mayor
cantidad de refuerzo.
- optimización molecular (momentánea).- se escoge siempre la alternativa con más
probabilidades de ser reforzada en ese momento.
* la hipótesis de la mejora: lo que hace que el animal cambie de alternativa entre una
conducta y otra es la mejora de la tasa puntual de refuerzo que está recibiendo. Esta hipótesis
sí explicaría el mecanismo que subyace a la ley de la igualación.

10. ALGUNA CONSIDERACIÓN SOBRE LAS TEORÍAS DEL REFUERZO.


Entre las teorías sobre el refuerzo, las más importantes son:
* la teoría de la reducción del impulso (Hull): hace referencia a la motivación
señalando que la consecución de la comida reduce su impulso de hambre.
* la teoría de la expectativa (Bolles).- se centra en el incentivo que produce la mayor
cantidad de comida o su mejor calidad en el animal; así explica que el refuerzo refuerce.
* la teoría de la prepotencia de la respuesta (Premack); sostiene que el reforzador es
una respuesta que tiene más probabilidad de ser emitida que la respuesta reforzable.
TEMA 15: CONDICIONAMIENTO OPERANTE DE
RECOMPENSA.

1. ADQUISICIÓN DEL APRENDIZAJE INSTRUMENTAL DE


RECOMPENSA.
La adquisición en el condicionamiento de recompensa consiste en:
- un aumento de la frecuencia con que se emite una conducta operante, o
- en la aparición de una nueva conducta operante que no existía con anterioridad.
Lo característico de la adquisición es:
- esperar a que dicha conducta ocurra, para que después pueda ser reforzada.
- crearla a través del procedimiento de modelado (shaping) usando una combinación de
refuerzo y no-refuerzo, que permite cambiar respuestas simples ya existentes en respuestas
nuevas más complejas.

2. PARÁMETROS EN LA RECOMPENSA.
La variable más importante es el reforzador, con el cual podemos medir varios
parámetros:
* Cantidad de refuerzo. Tiene dos acepciones:
- cantidad de reforzador: el condicionamiento es mejor conforme es mayor la cantidad
y calidad del reforzador.
- la tasa de refuerzo que se suministra: en general, al aumentar la tasa de refuerzo
aumenta la tasa de respuesta.
* Efecto de contraste: consiste en variar la magnitud de la recompensa durante el
periodo de adquisición. Si cambiamos de poca a mucha recompensa, el condicionamiento
mejorará. Los efectos de contraste pueden ser:
- positivos, y la llamamos elación,
- negativos, y lo llamamos depresión.
* Deprivación: cuanto más deprivado esté un organismo mayor será la acción de
reforzamiento que produzca el reforzador. La deprivación afecta tanto a la ejecución como al
aprendizaje. Ésta es la parte observable de una función psicológica activadora compleja que
se conoce como motivación. Así, la motivación es:
- el impulso que el animal siente por la necesidad provocada con la privación;
- una función activadora, no programadora, de la conducta como lo es el aprendizaje;
- un impulso autorregulativo del organismo que activa la conducta para conseguir un
equilibrio.
* Demora del refuerzo. Ésta provoca tres tipos de efectos:
- existe un límite de tiempo máximo de demora en el que ya no se produce el
aprendizaje;
- retrasa la adquisición del aprendizaje;
- disminuye el rendimiento en la ejecución del aprendizaje ya adquirido.
3. LA EXTINCIÓN DEL CONDICIONAMIENTO OPERANTE DE
RECOMPENSA.
Entendemos por extinción del condicionamiento operante de recompensa a la acción de
suprimir el refuerzo a una conducta con el fin de que el sujeto no pueda, de ninguna manera,
obtener dicho refuerzo.
Existen dos fenómenos generales de la extinción:
- al inicio de la extinción, la tasa de respuesta aumenta y se hace más vigorosa.
- el fenómeno de la recuperación espontánea o aumento de la tasa de respuesta en la
sesión posterior.
Las variables que afectan a la extinción se relacionan con la resistencia a la extinción, y
son:
- magnitud del reforzador: a mayor magnitud durante la adquisición, mayor resistencia;
- número de refuerzos recibidos: a más refuerzos durante la adquisición, mayor
resistencia;
- esfuerzo requerido para realizar la respuesta: cuanto más esfuerzo, mayor resistencia;
- programa de refuerzo: en general, los programas de refuerzo parcial producen mucha
mayor resistencia a la extinción que los programas de refuerzo continuo;
- magnitud de la motivación: durante la extinción: a mayor motivación, mayor
resistencia.

4. APRENDIZAJE DISCRIMINATIVO Y CONTROL DE ESTÍMULOS.


Al reforzar una respuesta, la ponemos bajo el control de los estímulos presentes durante
el refuerzo; esto es muy importante porque si controlamos esos estímulos, controlamos, a su
vez, la conducta.
Los estímulos discriminativos son aquellos que controlan una conducta. No provocan o
elicitan una conducta; sólo indican que el refuerzo está o no disponible si se ejecuta la
respuesta.
El aprendizaje discriminativo es el realizado mediante la discriminación de estímulos.
El poner una respuesta bajo control de un estímulo produce un proceso de
generalización de estímulos parecidos, que sólo se diferencian en su valor. Igualmente, la
respuesta bajo control se generaliza a otras respuestas.
Generalización y discriminación de estímulos son procesos complementarios.

5. CONDICIONAMIENTO OPERANTE DE SEGUNDO ORDEN.


Los reforzadores secundarios (o condicionados) son estímulos contiguos a un
reforzador primario que se condicionan clásicamente para producir sus mismos efectos de
reforzamiento. Al condicionamiento que se establece mediante estos reforzadores secundarios
se le llama condicionamiento de segundo orden.
La medida de la fuerza de un reforzador secundario se establece por su:
- durabilidad: veces que el reforzador secundario tiene efectos de reforzador primario.
- potencia: magnitud relativa en mantener una conducta. Depende de varios factores y
siempre es menor que la de un reforzador primario.
TEMA 18: ASPECTOS COGNITIVOS EN EL
CONDICIONAMIENTO OPERANTE: PROCESOS INTERIORES
DE REFUERZO PARCIAL. EL APRENDIZAJE
OBSERVACIONAL.

1. LOS PROCESOS INTERIORES EN EL REFUERZO PARCIAL.


Los procesos o estímulos interiores, que son diferentes de los estímulos internos, son
hechos de conciencia, cognitivos o emocionales, que actúan como auténticos estímulos
consiguiendo hacer aparecer, mantener y controlar una conducta. Con ellos se da paso a un
nivel de conducta superior: el nivel cognitivo.
En los programas de aprendizaje con refuerzo parcial, aparecen dos fenómenos que se
explican por la existencia de un proceso interior:
a) la resistencia a la extinción en el refuerzo parcial es mucho mayor que en un
refuerzo continuo; los estudios sobre esta resistencia sirven tanto para distinguir el
condicionamiento clásico del operante, como para separar el condicionamiento operante del
modelo de aprendizaje con estímulos o procesos interiores.
Las interpretaciones teóricas de la resistencia a la extinción en el refuerzo parcial son
cuatro:
- hipótesis de la discriminación: lo explica porque los animales no discriminarían entre
el proceso de adquisición y el de extinción.
- hipótesis de la unidad de respuesta: lo explica suponiendo que lo que se aprende no
es a contestar después de cada refuerzo, sino que la respuesta es una al conjunto de la
secuencia refuerzo, no-refuerzo.
- hipótesis de los refuerzos condicionados: al estar presentes los refuerzos
condicionados en todos los ensayos, el animal contesta en los ensayos no-refuerzo, por la
presencia de éstos.
- decremento por generalización: con el refuerzo parcial los sujetos aprenden en
situaciones similares a la extinción y, por tanto, generalizan menos el decremento de la
respuesta ante el no-refuerzo. Esta hipótesis está en la base de las posiciones de Amsel y
Capaldi.
b) el efecto patterning consiste en que si sometemos a un sujeto experimental a un
programa de refuerzo parcial en secuencia alternativa regular N R N R N R, donde N indica
ensayo no reforzado y R indica ensayo reforzado, encontramos que el animal corre más
después de los ensayos N que tras los ensayos R.
Su estudio es importante porque también lleva a la admisión de procesos cognitivos: se
considera efecto porque en él se invierte la ley general del aprendizaje instrumental, y se
considera patterning porque el refuerzo (R) y el no-refuerzo (N) siguen un determinado
patrón.
Se han dado dos tipos de explicaciones del efecto patterning:
1. acudiendo a estímulos externos:
- el animal huele la comida en la caja-meta antes de realizar una carrera reforzada;
- actúan las feromonas que los animales irían dejando en el recorrido;
- los postefectos del refuerzo o restos de comida que quedarían en la boca del animal.
2. acudiendo a los estímulos interiores o procesos cognitivos, estarían:
- la hipótesis de la frustración (Amsel).- cuando hay una secuencia N R N R, la
primera R produce una expectativa en el animal, a continuación la N produce la frustración
que energetiza la conducta y la R siguiente refuerza esa frustración, con lo que el animal la
aprende. Esta hipótesis desarrolla la teoría anticipatoria de Hull, señalando que el mecanismo
que hipotetiza es un mecanismo de aprendizaje, no un proceso cognitivo. Presenta muchas
dificultades.
- la hipótesis secuencial (Capaldi).- los postefectos que produce la carrera N no son
la frustración condicionada, sino trazos de memoria que perduran en el siguiente ensayo R,
produciéndose un condicionamiento por el que el trazo de memoria se convierte en estímulo
discriminativo, que señala que en la carrera siguiente está disponible el refuerzo. Esta
hipótesis presenta dos tipos de defectos, uno metodológico y otro de conceptualización.
Del estudio de ambos fenómenos ha surgido la controversia Amsel-Capaldi, dos autores
que postulan dos teorías para explicar el proceso de la interiorización del estímulo reforzante.
Estas teorías discrepan en cuál es el mecanismo que interioriza el estímulo y en la naturaleza
de los estímulos reforzantes interiorizados:
- para la teoría de la frustración condicionada de Amsel, el mecanismo que interioriza
el estímulo es un mecanismo de aprendizaje, según los modelos clásico e instrumental. No
hay apelación a proceso cognitivo alguno y los estímulos reforzantes interiorizados son de
naturaleza emocional.
- para la teoría secuencial de Capaldi, el mecanismo interiorizador del estímulo
reforzante se trata de un proceso cognitivo, donde los resultados son de naturaleza sensorial.

2. EL APRENDIZAJE OBSERVACIONAL.
Según Bandura, el aprendizaje observacional es un aprendizaje sobre una base vicaria
por medio de la observación de la conducta de otra persona y de las consecuencias que dicha
conducta tiene sobre ella. También es conocido como modelado, aprendizaje vicario,
aprendizaje por imitación o aprendizaje social. Enfatiza los aspectos cognitivos y requiere la
participación de, al menos, dos personas: el modelo y el observador. Este aprendizaje no
consiste en la formación de una asociación E-R, sino en la adquisición de representaciones
cognitivas de la conducta del modelo. El estímulo (conducta del modelo) no provoca la
ejecución de la imitación, sino su aprendizaje en un plano cognitivo.
Los procesos básicos en el aprendizaje observacional son tres:
- atención y discriminación. Para que se produzca este aprendizaje es necesario que el
observador atienda a la conducta que realiza el sujeto que hace de modelo y que discrimine
los aspectos más relevantes de dicha conducta. Esta proceso atencional está influenciado por
las características del modelo, las del observador y las de la situación.
- proceso de retención o registro. Consiste en el almacenaje y recuperación del material
perceptual adquirido por la observación. Se puede realizar por imágenes o símbolos verbales.
- proceso de elaboración cognitiva. Es la reelaboración que hace el sujeto del material
que ha observado. Puede consistir en realizar un esquema general de la conducta observada.
Los procesos básicos de la ejecución del aprendizaje por observación son los procesos
de reproducción motora y los procesos de refuerzo.
En general, constituye un modelo muy adecuado para el aprendizaje humano en el que
se evitan muchas dificultades propias del condicionamiento clásico y operante.

TEMA 19: PANORAMA ACTUAL DE LA PSICOLOGÍA DEL


APRENDIZAJE.

1. LA COGNICIÓN ANIMAL.
El estudio de la cognición animal es el estudio de procesos cognitivos en animales que
hace la psicología del aprendizaje a través del análisis experimental de la conducta.
Se centra en el estudio de procesos interiores inferidos desde la conducta, que hacen
referencia a procesos de pensamiento, los cuales pueden explicar una conducta que no se
explicaría por estímulos externos solamente.
Estos estudios pretenden investigar cómo se forman esas representaciones neurológicas,
qué información representan, cómo es el mecanismo que las almacena, y cómo guían
posteriormente la conducta.
Por tanto, no explican los procesos en sí, sino los procesos básicos del aprendizaje a los
que pretende dar una interpretación cognitiva.
Estas investigaciones han dado lugar a diversos paradigmas experimentales que
pretender estudiar diversos procesos cognitivos como memoria, formación de conceptos,
razonamiento y lenguaje en las especies animales.
En general, el estudio de la cognición animal tiene como objetivo el conocimiento de la
conducta animal y, a través de ella, conocer la evolución de la cognición humana.
La cognición animal comenzó con el estudio de la memoria.
La memoria es un proceso que permite el almacenaje y la reproducción de lo adquirido
en el aprendizaje.
En los estudios sobre memoria animal se consideran dos tipos:
- memoria de trabajo: se trata de la retención en la memoria de un estímulo o relación,
sólo para la ejecución de una tarea determinada; su duración es corta.
- memoria de referencia: se trata de un almacenamiento a largo plazo para una
ejecución acertada de la información que el animal acaba de aprender; es de larga duración.
La mayor parte de las investigaciones sobre memoria de trabajo se refieren al estudio de
la memoria espacial, que sirve para localizar un lugar determinado en un espacio complejo.
Fue Tolman el primero en hablar del aprendizaje espacial en términos de mapas
cognitivos, a través de su aprendizaje perceptivo u observacional. Para él, lo que el animal
aprende es a poner en relación una configuración estimular con otra, que es igual que conectar
un signo con su memoria de referencia. Así, el animal reacciona instrumentalmente según un
mapa cognitivo.
La memoria espacial en los animales se concreta en la representación o mapas
cognitivos.
El tiempo, por sí mismo, no produce olvido. Se han estudiado las alteraciones de la
memoria en los animales, concretamente aquellos acontecimientos y/o procesos que hacen
que olvidemos lo anterior o lo posteriormente aprendido.
Otros estudios de cognición animal se han centrado en el pensamiento, investigando la
formación de conceptos perceptuales, que son las representaciones de las categorías de
estímulos perceptuales.
Se ha señalado que los animales, para formar tales conceptos perceptuales, aplican
reglas que les permiten identificar las características del estímulo, sin tener que considerar una
característica determinada.
Otra investigación sobre cognición animal es el estudio del aprendizaje de pautas
seriales.
Actualmente Capaldi, dentro de su teoría secuencial, señala que el animal aprende
pautas seriales de refuerzo, haciendo la abstracción de una regla a partir de una secuencia de
estímulos, siendo el conocimiento de esa regla lo que explica que responda correctamente a
las diferentes pautas de estímulos.

2. ESTUDIOS DE APRENDIZAJE HUMANO.


Dentro de los estudios de aprendizaje con experimentación en humanos, el problema
está en la existencia o no de dos sistemas de aprendizaje:
- uno explícito, en el que actúan mecanismos conscientes.
- otro implícito, en el que actúan mecanismos no conscientes.
Para el estudio del aprendizaje implícito se acudió primero a la estimulación subliminal
para luego cambiar por la estimulación percibida conscientemente.
Lo implícito no está en el conocimiento consciente del estímulo en sí, sino en la
adquisición del conocimiento de las relaciones del estímulo con otros. Lo fácil sería que el
sujeto manifestase si es consciente de esa relación o no, pero en el aprendizaje implícito no es
posible; por eso su evaluación es tan complicada.
Para dilucidar cómo es la accesibilidad a la conciencia de un conocimiento implícito y
cuál es su naturaleza, se ha utilizado el aprendizaje de gramáticas artificiales y el aprendizaje
de secuencias.
Existen otros dos tipos de aprendizaje:
- el aprendizaje procedimental, que hace referencia a la adquisición de reglas de
condición-acción. Explica la adquisición de diferentes habilidades motoras, sociales y
cognitivas.
- el aprendizaje declarativo, que tiene que ver con la adquisición de conocimientos de
hechos o proposiciones.
La distinción entre ambos ha sido utilizada para explicar disociaciones en la ejecución
de sujetos amnésicos en algunas tareas de memoria, porque parece que los amnésicos
mantienen la habilidad del aprendizaje procedimental, pero no la del declarativo.
TEMA 20: LA EVOLUCIÓN DE LOS ESTUDIOS DE LA
ATENCIÓN.

1. LOS ESTUDIOS DE LA ATENCIÓN EN EL ANTIGUO MENTALISMO.


Para Helmholtz, la atención era lo relacionado con el dónde deberían dirigirse los
procesos psicológicos, mientras que para James la función de la atención era qué debe ser
procesado. Ambas concepciones son complementarias.
Wundt trató la atención en relación con la conciencia, estudiando los grados de
conciencia (Wundt distinguía entre apercepción que es lo percibido en el foco de la
conciencia y lo simplemente percibido que está en el campo de la conciencia, pero no en su
foco) y el espacio de conciencia o medida de la cantidad de contenido que se puede apercibir
en un solo acto. Esto último es lo que nos da el alcance de la atención, mientras la extensión
temporal de lo que puede ser abarcado por la conciencia nos da el alcance de la conciencia..

1.1. ESTUDIOS SOBRE LA AMPLITUD DE LA ATENCIÓN.


Los estudios sobre la amplitud de la atención indican que:
- para Wundt el alcance de la atención era de 6 a 12 impresiones en un solo acto;
- para Jevons la amplitud de la atención variaba de un momento a otro, oponiéndose a
Wundt que creía que el alcance de la atención era de magnitud constante;
- los estudios taquistoscópicos posteriores sitúan la amplitud media de la atención en 8
elementos, con oscilaciones medias de cada individuo entre 6 y 11 elementos.

1.2. ESTUDIOS SOBRE LA FLUCTUACIÓN SENSORIAL.


Los estudios sobre la duración de la atención comenzaron con las fluctuaciones
sensoriales (Woodworth y Schlosberg). Las fluctuaciones sensoriales son oscilaciones
periódicas de sensación-no sensación en las modalidades sensoriales. Son independientes de
la tensión muscular propia del estado de atención y su ritmo es variable e inconstante incluso
en un mismo individuo.

1.3. LA ATENCIÓN COMO CLARIDAD DE CONCIENCIA.


Para Titchener, la atención era como una propiedad de la sensación a la que llamó
atensividad, que hace referencia a la claridad de conciencia con que obtenemos la sensación.

2. LA ATENCIÓN EN WILLIAM JAMES.


Para él la atención es un acto adaptativo, porque es un proceso para seleccionar
aquellos estímulos que son de interés para el sujeto y que están en consonancia con la
ontogénesis y el aprendizaje de cada uno y con la filogénesis de su especie. Percibimos
aquello a lo que decidimos prestar atención. Para James la atención y el interés son
inseparables.
Todo lo seleccionado por la atención tiene que gozar de claridad de conciencia.
James distinguió varios tipos de atención:
- atención sensorial: aquella que atiende a objetos de los sentidos;
- atención intelectual: aquella que atiende a objetos representados o ideales. Se divide
en:
a) inmediata.- cuando el estímulo es interesante por sí mismo;
b) derivada.- cuando su interés se debe a su asociación con un objeto que es
inmediatamente interesante.
Con respecto a la actitud del que atiende, la atención puede ser:
- pasiva: refleja, no voluntaria, sin esfuerzo;
- activa: voluntaria.
Para James, la atención activa es la atención sostenida, porque depende de un
redirección repetida del esfuerzo hacia el foco de atención y de la resistencia a la atracción
hacia otro foco.

3. LA ATENCIÓN DENTRO DE LA TEORÍA DE LA GESTALT.


La escuela de la Gestalt se centró, principalmente, en el estudio de la percepción, que
está muy unido al estudio de la atención.
Desde su posición fenomenológica, defiende que hay que atenerse al fenómeno tal
como se nos aparece, sin analizarlo en partes.
Hay conceptos en la psicología de la Gestalt como el de insight o el de pregnacia, que
hacen referencia a la claridad de conciencia y a la selectividad de lo percibido pero, por su
visión dinamicista de los procesos mentales, consideró la atención como una dimensión de los
procesos mentales, más que como un proceso mental independiente.

4. EL ESTUDIO DE LA ATENCIÓN EN LA PSICOLOGÍA DE LA


CONDUCTA.
Dentro de la psicología de los condicionamientos sólo hubo dos posiciones que
desarrollaron el estudio de la atención: como alertamiento del organismo y como reflejo de
orientación.

4.1. LA ATENCIÓN COMO ALERTAMIENTO.


Berlyne (conductista) trata el tema como un problema de la selección de estímulos. Para
él, la explicación fisiológica de la atención está en el funcionamiento del sistema reticular de
alerta; concretamente, en el sistema reticular ascendente.
Según él, la atención como proceso de selección plantea tres cuestiones:
a) cómo es la atención en la ejecución de una respuesta;
b) cómo actúa la atención en el aprendizaje;
c) cómo afecta la atención en el recuerdo.
Berlyne desarrolló una teoría de la atención selectiva como selección de estímulos. Los
determinantes de la atención en estas situaciones son similares y parecen incluir muchos de
los factores que afectan a la fuerza de la respuesta en general. Sin embargo, adquieren
especial relevancia variables como la intensidad, su valor afectivo y la familiaridad del
estímulo.

4.2. LA ATENCIÓN COMO REFLEJO DE ORIENTACIÓN.


Es la otra posición, dentro de la psicología de los condicionamientos, en el estudio de la
atención y fue desarrollada dentro de la psicología soviética.

5. LA ATENCIÓN EN EL ENFOQUE DEL PROCESAMIENTO DE LA


INFORMACIÓN.
Broadvent ha señalado que la capacidad humana de procesar información es limitada.
En consecuencia, para que no se sobrecargue el sistema se postuló la existencia de un filtro.
Dentro de la psicología cognitiva se han producido multitud de modelos explicativos de
la atención. Hay modelos de filtro que consideran la atención como un mecanismo interno
entre la estimulación y la respuesta; hay modelos de capacidad limitada, como el de
Kahneman y Norman y Bobrow o modelos de capacidad ilimitada como el de Allport o, más
modernamente, el modelo de la habituación y deshabituación de Cowan, por poner algunos
ejemplos.
TEMA 21: LA ATENCIÓN DESDE EL ENFOQUE DEL ESTUDIO
DE LA CONDUCTA.

1. INTRODUCCIÓN.
Las sensaciones no proporcionan propiamente información, sino sólo los datos sobre los
cuales los organismos estructuran su propia información sensorial para realizar
posteriormente la conducta y, con ello, poder adaptarse al medio.
La función que proporciona la información sensorial de los objetos de los mundos
propios de los organismos es la percepción, pero ésta no es posible sin los procesos
atencionales. Los procesos atencionales de activación y selección permiten, ante la gran
cantidad de estímulos sensoriales, seleccionar unos datos informativos de otros.
En la psicología de los condicionamientos, esta función se conoce con el nombre de
reflejo de orientación.
En el reflejo de orientación se dan una serie de respuestas fisiológicas y unas conductas
preparatorias para la acción que tienen una finalidad puramente adaptativa. Su importancia
estriba en la aparición de las funciones cognitivas y, en consecuencia, en la aparición de la
conciencia.

2. EL REFLEJO DE ORIENTACIÓN: SU DEFINICIÓN.


Los primeros estudios sobre el reflejo de orientación fueron obra de Pavlov y
Bekhtenev. Los estudios más profundos fueron realizados por los psicólogos soviéticos, los
cuales destacaron el papel del reflejo de orientación como base de los procesos cognitivos.
Razran considera el reflejo de orientación como “la primera reacción normal del
organismo o cualquier estímulo adecuado normal que aparece o que cambia de atributos”.
Sokolov lo define como “el resultado de la emergencia de una señal discordante con el
modelo neuronal del estímulo que el organismo ya había captado con anterioridad”.
Conceptualmente podemos definirlo como “un sistema de respuestas
fundamentalmente organizado en el sistema nervioso central, de carácter inespecífico en
cuanto a los estímulos que lo provocan, rápidamente extinguible o habituable, y que se
restaura fácilmente con el cambio de la situación estimular”.
Sus principales propiedades o características son:
- tiene un marcado carácter activo, por lo que es una conducta de orden superior.
- tiene un carácter sensorial, porque su función se desarrolla con estímulos sensoriales.
- no se considera una función específica de la elaboración de información sensible, sino
sólo una función preparatoria para la construcción del mundo específico del organismo.
- no constituye la conducta motora adaptativa, sino sólo una conducta preadaptativa.
- está en la base de la motivación y del carácter activador de emergencia de la conducta
emocional.

3. PRINCIPALES ELEMENTOS DEL REFLEJO DE ORIENTACIÓN.


* Sus componentes fisiológicos son:
- cambios en los ritmos bioeléctricos de la corteza.
- cambios en la actividad del sistema nervioso autónomo.
- cambios de tono en la musculatura esquelética.
* Sus componentes conductuales son:
- el principal, es el cambio en el sistema perceptual de los sentidos, el cual implica una
nueva organización sistemática de los mismos como consecuencia de la información de
cambio producida en el ambiente.
· Sokolov lo llamó estimulación directa.
· produce una disminución de ciertos umbrales sensoriales y aparecen actividades
motoras en los órganos de los sentidos.
- el segundo, es de tipo efectorial motor, formado por acciones e inhibiciones motoras.
· Sokolov lo llamó estimulación indirecta.
· se producen cambios fisiológicos en la corteza y en los sentidos periféricos.
El reflejo de orientación es un sistema global e integrado que se compone de elementos
viscerales, somáticos, neurales y cognitivos.
Todos sus componentes aparecen ante una novedad estimular, tienen carácter no
específico, desaparecen con la repetición y reaparecen con los cambios estimulares.

4. EL REFLEJO DE ORIENTACIÓN Y LAS OTRAS FORMAS DE


CONDUCTA.

4.1. REFLEJO DE ORIENTACIÓN Y OTROS TIPOS DE REFLEJOS.


El reflejo de orientación se diferencia de los reflejos de adaptación y defensivo en:
- su carácter global, sin zonas reflexogénicas específicas.
- presentar un bajo umbral de captación de estímulos.
Se diferencia de los reflejos simples por:
- su complejidad.
- su carácter inespecífico de estimulación.
- su modalidad cognitiva investigadora.
- su fácil extinción o habituación.

4.2. REFLEJO DE ORIENTACIÓN E INSTINTOS.


El reflejo de orientación con respecto a los instintos:
- no responde a estímulos índice o signos específicos.
- no realiza una actividad consumatoria, ya que sólo tiene un carácter preparatorio.
- tiene fácil habituación.

4.3. REFLEJO DE ORIENTACIÓN Y PATRONES DE CONDUCTA ADQUIRIDOS NO


ASOCIATIVAMENTE.
No se puede considerar al reflejo de orientación como un condicionamiento ya que su
presencia es independiente a todo tipo de aprendizaje, apareciendo con anterioridad y en
contraposición a la respuesta condicionada.
Se diferencia de la habituación en que, si ésta consiste en dejar de responder a un
estímulo, el reflejo de orientación consiste en responder a estímulos nuevos o a nuevas
complejidades de ellos.
Se diferencia de la sensibilización en que si ésta permanece como cosa adquirida ante la
presentación repetida de los estimulas, el reflejo de orientación necesita de novedad estimular.
Genéricamente, el reflejo de orientación es un patrón complejo de activación cognitiva
de respuestas aferenciales de gran complejidad, que no tiene el carácter consumatorio
informativo que posee la percepción, ni la simplicidad, ni la especificidad de las modalidades
informativas de las sensaciones.

4.4. PARÁMETROS DEL REFLEJO DE ORIENTACIÓN.


Al no ser una conducta aprendida no existen los parámetros de adquisición.
En la extinción, además de presentar una mayor rapidez y mayor reaparición ante el
cambio estimular presenta, como el condicionamiento clásico, una relación inversa con la
intensidad del estímulo y una relación directa con la posición del organismo en la escala
filogenética.

5. CARÁCTER PROPIOCEPTIVO DEL REFLEJO DE ORIENTACIÓN.


El carácter propioceptivo significa un reprocesamiento de la información mediante la
retroalimentación o feedback, entre la información que ya se tiene y la nueva información.
Debido a ese carácter propioceptivo, el reflejo de orientación es siempre necesario en el
condicionamiento operante, porque en su relación estímulo-respuesta siempre se produce una
cierta retroalimentación.
TEMA 22: LA ATENCIÓN DESDE EL PUNTO DE VISTA DEL
PROCESAMIENTO DE LA INFORMACIÓN.

1. INTRODUCCIÓN.
Desde el enfoque de la teoría del procesamiento de la información se han estudiado dos
aspectos de la atención:
- la atención sostenida: entendida como la capacidad del sujeto de mantener la atención
durante el tiempo a un input concreto y determinado.
- la atención selectiva: considerada como el mecanismo que procesa parte de la
información que llega al organismo y que requiere, al menos, la presencia de dos inputs
simultáneos.

2. LA FUNCIÓN SELECTIVA DE LA ATENCIÓN.


La atención selectiva ha sido estudiada por la psicología cognitiva en dos frentes
distintos:
a) a través de la base experimental realizada.
b) y por su conceptualización teórica.

2.1. BASE EXPERIMENTAL.


* La atención selectiva es estudiada por Broadbent mediante dos paradigmas
experimentales:
- Tareas de Amplitud Dividida (spit-span).- consisten en hacer atender a los sujetos a
estímulos diferentes simultáneamente en cada uno de los oídos. Pueden ser realizadas a través
de dos condiciones experimentales:
1) hacerle repetir los dígitos oídos primero con el derecho y luego los oídos con el
izquierdo;
2) hacerle repetir los dígitos en orden cronológico (1º derecho, 1º izquierdo, 2º derecho,
2º izquierdo, etc.)
Los resultados experimentales fueron mejores con la primera condición, puesto que se
cometía menos errores.
Para Broadbent, en este proceso intervienen:
- dos canales sensoriales (los oídos);
- un seleccionador o filtro (la atención), que primero deja pasar la información de un
oído y luego la del otro, aunque ambas lleguen al mismo tiempo;
- un almacén de memoria a corto plazo (después llamada memoria sensorial), en donde
queda almacenada la información hasta que el filtro le permita el paso.
- Tareas de seguimiento (shadowing).- consisten en presentar un mensaje en prosa
continua a un oído, que el sujeto tiene que seguir y repetir en voz alta, mientras en el otro oído
se daba otro mensaje.
* Treisman demostró que los sujetos sólo recordaban características físicas del mensaje
no atendido, confirmando también la existencia de un filtro seleccionador.
2.2. CONCEPTUALIZACIÓN TEÓRICA.
2.2.1. Modelos de filtro de un solo canal.
Los modelos de Broadbent y Treisman han sido llamados modelos de filtro, porque
conciben la atención como un filtro. Estos modelos se caracterizan porque:
- la información se procesa sin limitación hasta llegar a un canal único, donde sólo se
procesa una información a la vez.
- la información que entra en este canal es procesada conscientemente (atendida).
- la información ilimitada que llega por los canales sensoriales se selecciona mediante
un mecanismo (filtro).
* La conceptualización teórica del modelo de Broadbent es la siguiente:
- entiende la atención como una parte dentro del modelo estructural del proceso
perceptual, formado por canales sensoriales, memoria a corto plazo, filtro, sistema perceptual,
memoria a largo plazo, etc.
- concibe la atención dentro de un modelo de un solo canal de capacidad limitada, en el
que el filtro posibilita el flujo de información de un solo canal en cada momento, a través de
la regla “pasa o no pasa”.
- su modelo, al ser estructural y cualitativo, se representa por un diagrama de flujo.
- se modelo se encuadra dentro de la Teoría del Procesamiento de la Información.
* Treisman modificó este modelo de Broadbent:
- sustituyó el filtro seleccionador por un filtro de atenuación, que no impide el paso de
la información no atendida, sólo la atenúa, pudiendo ésta llegar al sistema perceptual y ser
codificada.
- añadió un almacén de unidades lingüísticas dentro de la memoria a largo plazo.
Hizo estas modificaciones porque pensó que la selección se hacía primero por el análisis
de las características físicas y después por un análisis semántico del significado de la
información.
Broadbent admitió, después, que la selección podía hacerse por las propiedades físicas o
por las semánticas.
* Críticas a los modelos de filtro de un solo canal.
2.2.2. La localización del filtro.
1º Broadbent y Treisman proponen que el filtro actúa con anterioridad a la percepción.
2º Deutsch y Norman dicen que el proceso selectivo es posterior al procesamiento
perceptual.
La evidencia experimental apoyaría que el proceso selectivo se hace una vez percibida
la información, lo cual iría en contra del planteamiento de Broadbent y Treisman. Sin
embargo, también los datos experimentales señalarían que el análisis completo de toda la
información que entra a través de los sentidos ni es posible ni se puede dar, lo cual iría en
contra de los planteamientos de Deutsch y Norman.
3º Neisser, con su posición intermedia, propone un proceso preatencional que codifica
toda la información y, posteriormente, otro proceso en que las características relevantes
focalizan la información objetivo.
2.2.3. Modelos de capacidad limitada.
La segunda crítica es sobre la capacidad del canal.
Los que defienden una capacidad limitada del canal son los modelos de recursos
limitados, entre los que se encuentran los modelos de la psicología cognitiva.
El modelo de Kahneman se centra en la capacidad del organismo para realizar la
actividad mental. Señala que para que actúe la atención hace falta la selección del input por
las estructuras implicadas y la capacidad del organismo, siendo el factor que controla dicha
capacidad de procesamiento: la dificultad de la tarea.
La postura de Norman y Bobrow, que se basa en la atención repartida, señala que las
limitaciones de capacidad vendrían, no del canal perceptual, sino de la dificultad de la tarea y
de la cantidad de capacidad de procesamiento dedicada a los inputs informativos no
atendidos.
Ambas posturas ponen en entredicho la capacidad limitada del canal perceptual.
Shiffrin y Schneider defienden la posibilidad de aumentar la capacidad con la práctica.
Fijan dos tipos de procesamiento:
- procesamiento automático: cuando los estímulos están en correspondencia con las
respuestas, se ponen en marcha las secuencias de operaciones que ya están almacenadas en la
memoria a largo plazo.
- procesamiento controlado: en caso contrario al anterior, se produce un activación
temporal de la secuencia no aprendida, la cual requiere atención y memoria a corto plazo. Con
la práctica puede llegarse a procesar automáticamente.
2.2.4. El modelo de Allport.
Defiende una atención de capacidad ilimitada, ya que demostró que se podían realizar
simultáneamente dos tareas muy complejas con poca práctica.
El problema no estaría en la limitación de la capacidad de atención, sino en qué tareas
del mismo sistema entran en competición entre sí.
Rechaza una limitación de capacidad en el procesador central, aunque admite una
limitación de los múltiples canales que procesan aspectos específicos de información.
Su modelo es considerado como un modelo de múltiples canales, porque plantea una
serie de canales que actúan como procesadores específicos independientes del procesador
central.

3. LA CLARIDAD DE CONCIENCIA EN LA ATENCIÓN.

3.1. EL PROCESAMIENTO INCONSCIENTE.


Los estudios sobre el procesamiento inconsciente sugieren la distinción entre capacidad
de procesamiento y conciencia, porque aunque procesemos más de un input a la vez, puede
que no seamos conscientes de todo.
Según Marcel, la toma de conciencia del input se produce en un momento avanzado del
procesamiento perceptual, lo cual implica admitir la existencia de una capacidad de
procesamiento del significado.
Sus planteamientos suponen volver al concepto de la atención como claridad de
conciencia, puesto que lo atendido sería lo consciente, mientras que lo procesado puede ser
inconsciente.
3.2. EL MODELO DE COWAN.
Se fija más en el proceso de activación que en el proceso de selección, ya que hay
inputs procesados activados y otros no, y la selección está en función de la claridad de
conciencia.
Según este modelo, la focalización de la atención es controlada:
- mediante los cambios físicos en el patrón estimular (deshabituación).
- voluntariamente, llevando la atención a cualquier estímulo o característica que esté en
la memoria.
TEMA 23: CONCEPTUALIZACIÓN ACTUAL DE LA
ATENCIÓN.

1. INTRODUCCIÓN.
La atención es la activación del organismo encaminada a la captación de estímulos,
consistente en un alertamiento del organismo para la obtención de información del medio
externo e interno y en la selección de esa información.
La atención como activación ha sido respaldada por:
- la investigación fisiológica, dentro del estudio de la formación reticular, como un
proceso activador distinto de los procesos representativos (percepción o memoria).
- la psicología de la conducta, como reflejo de orientación.
- la teoría de Gibson, como exploración y búsqueda de la información necesaria para
realizar una conducta adaptada.
El estudio de la atención ha pasado por tres etapas fundamentales:
1ª la psicología introspeccionista de la conciencia: como claridad de conciencia.
2ª la psicología de los condicionamientos: como alertamiento o reflejo de orientación.
3ª la psicología cognitiva (procesamiento de la información): como control selectivo del
proceso de información o como capacidad de procesamiento simultáneo de varios tipos de
información.

2. EL CONCEPTO DE ATENCIÓN.
Lo importante de la atención es la habilidad para realizar un análisis selectivo de la
información, de tal manera que abarca todos los procesos, desde la motivación que determina
la percepción hasta su almacenamiento en la memoria.
La función de la atención es obtener la percepción de la información que recibimos,
seleccionando la más oportuna en cada momento. Así, cuanto más conciencia tenemos de una
información determinada, mayor grado de análisis le hemos dedicado a esa información.
La atención es un constructo hipotético, no observable directamente, que ha sido
considerado de varias maneras:
- no como un proceso en sí, sino como una propiedad de los procesos, en especial de la
sensación. En este sentido, Titchener lo consideró así y lo llamó atensividad. Hoy algunos
autores han vuelto a defender esta idea.
- como un mecanismo atencional que controlaría la interacción de los procesos
cognitivos; este argumento está confirmado por la existencia de la formación reticular en el
cerebro, como estructura propia, lo cual ofrece incluso una base fisiológica.
Hoy, no existe un definición unitaria de atención, aunque en todos los intentos se insiste
en su carácter de alertamiento o toma de conciencia y en su carácter de selección y limitación
de lo atendido.
La mayoría de los investigadores se muestran a favor de un enfoque multidimensional
de la atención, considerándola en diferentes ámbitos: etológico, cognitivo, psicofisiológico y
bioquímico. Además, consideran a la atención como un proceso psicológico más.
3. UNA TEORÍA DE LA ATENCIÓN. UNA PERSPECTIVA DESDE EL
PROCESAMIENTO DE LA INFORMACIÓN.

3.1. DEFINICIÓN DE ATENCIÓN.


Desde la psicología cognitiva, se considera la atención como un proceso que media
entre el input del estimulo y el output de la respuesta, a través de tres estadios de
procesamiento: codificación, procesamiento central y organización de la respuesta.
Las propiedades de la atención como proceso central y responsable de la activación de
los procesos cognitivos y de sus ejecuciones selectivos son:
- que es un mecanismo, posiblemente central, que no se limita a una actividad de filtro o
atenuador, ni es un mero ejecutor del resto de los procesos.
- que su función activadora es de alertamiento o toma de conciencia de la actividad que
se realiza, dirigiendo y controlando a los sistemas perceptuales para la recogida,
almacenamiento, procesamiento semántico de la información y la realización de la conducta.
Por tanto, podemos definir la atención como el mecanismo de alertamiento de los
procesos cognitivos, dentro de ciertos límites, considerados como sistemas cognitivos de
procesamiento de los información y de dirección y control de la conducta. Es decir, es un
mecanismo de concienciación y selección de la actividad de los procesos cognitivos.

3.2. ESTUDIOS EXPERIMENTALES DE LA ATENCIÓN.


Para entender el mecanismo responsable de la atención hay que hacer una distinción
entre:
- procesamiento consciente voluntario, que requiere un reconocimiento del input;
- procesamiento automático, no consciente, que se da por una inhibición de la
conciencia.
Esto no quiere decir que existan unos procesos cognitivos que sean automáticos y otros
que sean conscientes, sino que unos mismos procesos pueden ejecutarse de un modo y otro.
Para investigar los efectos de la atención se han realizado los experimentos de búsqueda
visual.
Los experimentos con el efecto Stroop sirvieron para distinguir el procesamiento
automático del controlado, ya que en este efecto se dan ambos tipos de procesos; también los
experimentos de procesamiento semántico han confirmado los dos tipos de procesamiento.
La crítica más importante sobre los dos tipos de procesamiento radica en que éstos
actúan como extremos, cuando en realidad se comportan de una manera más continua que
discreta.

3.3. ESTUDIOS FISIOLÓGICOS DE LA ATENCIÓN.


Posner señaló la existencia de un proceso interior de la atención, del que dependería la
orientación de los órganos sensoriales, y de una dependencia de la estimulación exterior.
Existen ciertas patologías que afectan a la atención como el síndrome neglect, que
parece resultar de dos disfunciones de la atención:
- se pierde la capacidad de controlar el proceso de orientación, no se produce
orientación de los órganos periféricos por la acción del cerebro medio.
- el daño cerebral hace imposible el proceso de conciencia, de tal manera que los sujetos
ignoran la estimulación que sería procesada en esa parte de ese hemisferio cerebral.
Hay coincidencia en los trabajos psicofísicos y neurológicos sobre la existencia de los
dos procesos.

4. CONCLUSIÓN.
Existe un mecanismo de alertamiento y concienciación, que es la atención, cuyo
objetivo no es procesar información específica, sino controlar el procesamiento de los otros
mecanismos mentales.
Es posible un control consciente que no sea un mecanismo mental especifico, sino un
modo específico de realizar el procesamiento por parte de los otros procesos mentales.
La teoría del proceso-dual es la teoría más aceptada: el proceso de alertamiento y
concienciación describe cómo los cambios en el ambiente son detectados por los organismos.
La explicación mediante un mecanismo mental es una posición teórica.
TEMA 24: INTRODUCCIÓN AL ESTUDIO DE LA
PERCEPCIÓN.

1. LA PERCEPCIÓN ES UN PROCESO DE INFORMACIÓN.


La primera ley de los seres vivos es la adaptación, pues todos los organismos vivos
necesitamos adaptarnos a nuestro medio ambiente para poder sobrevivir. Conseguimos
adaptarnos regulando nuestra actividad en dicho medio.
A la habilidad de informarnos de nuestro medio para regular nuestra actividad se le
denomina percepción. Dicha actividad consiste en poder detectar las estructuras y sucesos del
ambiente que nos son vitales y, poder así, realizar nuestra vida.
Para percibir es preciso adquirir la información necesaria del ambiente que nos rodea.
Los sentidos de cada animal son los que permiten tal adquisición y, en el caso del ser humano,
es el sistema visual el que proporciona una mayor y más completa información.
Palmer, intentando señalar que la percepción visual es una actividad informativa pero
cognitiva y referida a objetos reales, la define como “el proceso de adquirir conocimientos
sobre los objetos de nuestro ambiente, mediante la extracción de información en la luz que
dichos objetos emiten o reflejan”.
Tanto el sistema visual como los demás sentidos requieren ser estimulados para poder
captar la información pertinente del medio. Es el ambiente de cada animal la fuente de dicha
estimulación.
Los tres elementos generales del ambiente de nuestro planeta son la tierra, el agua y el
aire, pero el ambiente propio de los seres humanos es la tierra. Sobre ella actúan diversas
energías: gravitatoria, mecánica, química (empleada en el gusto y el olfato), electromagnética
(base de la visión).
Dado que es la percepción visual nuestro objeto de estudio, es necesario revisar algunos
conceptos relativos a la física de la luz:
1) la luz es una radiación electromagnética.- las formas de radiación electromagnética:
- son varias y se diferencian por su frecuencia o longitud de onda;
- sólo una pequeña parte de ellas constituye el espectro de radiaciones visibles al ojo
humano. Este espectro lo forman, de menor a mayor longitud de onda, los llamados colores
del arco iris. Su combinación da como resultado la luz blanca.
2) se han formulado diversas teorías explicativas para comprender la naturaleza de la
luz: el modelo ondulatorio; la teoría corpuscular; la teoría corpúsculo-onda.
3) los fenómenos de la propagación de la luz son:
- absorción, se refiere a que, al atravesar el aire o el agua, la luz es en parte absorbida
por chocar los fotones con las partículas de dichos medios.
- disfracción, tiene que ver con que los fotones son esparcidos, en vez de absorbidos.
- refracción, es el cambio de dirección experimentado por un rayo luminoso cuando
pasa de un medio transparente a otro de diferente densidad.
- reflexión, ocurre cuando la luz incide sobre una superficie opaca. Puesto que la textura
de las diversas superficies es diferente, los espectros de luz reflejados también lo serán. De
este fenómeno se desprende la percepción de la forma y del color.
Las formas y los colores son información del ambiente contenida en el patrón de luz
reflejada que llega a un observador situado en un punto dado del mismo. A este patrón lo
denominó Gibson disposición óptica ambiental y constituye el orden óptico ambiental, ya
que es la estructura de la luz, principalmente la luz reflejada, que llega a un punto concreto de
observación desde todos los lugares del ambiente.
Dado que al movernos se producen cambios en el punto de observación es necesario
distinguir entre:
- orden óptico ambiental estático y momentáneo.- se da por un patrón de luz
convergente en un punto de observación, y
- orden óptico ambiental dinámico y extendido temporalmente.- sólo se da en el flujo de
la luz en el tiempo.
Esta distinción es relevante para la percepción de la distancia, el movimiento y la
tercera dimensión.
Respecto a la intensidad de la luz, hay que diferenciar entre:
- intensidad luminosa o cantidad de energía luminosa emitida por un foco.- es algo
físico y se mide en bujías o candelas.
- iluminación o cantidad de energía luminosa que recibe una superficie.- es algo físico y
se mide en unidades llamadas lux.
- luminancia o cantidad de luz reflejada por una superficie. En Física, la cantidad de luz
reflejada por una superficie se mide en nit y se corresponde psicológicamente con lo que
llamamos brillo.
Es importante señalar que los niveles de luminancia son diferencias de algo físico,
mientras que los niveles de gris son diferencias de algo psíquico. Su relación se estudia en
psicofísica.
Las diferencias de intensidad de luz, principalmente de luminancia, constituyen el
primer elemento informativo para un animal que ve.

2. LA PERCEPCIÓN ES UN PROCESO DE INFORMACIÓN


COMPLICADO.
La complejidad del proceso perceptual radica en explicar cómo la energía física
recogida por nuestros sentidos forma la base de nuestra experiencia perceptual.
Hay que tener presente que la detección del estímulo como pura energía física es pura
sensación, pero los invariantes que informan de las cosas del ambiente se captan en la
percepción. La psicofísica estudia el proceso de detectar el estímulo y las leyes que lo rigen;
el proceso perceptual es el responsable de la captación de objetos.
¿Cuál es el estímulo en la captación de objetos?
- los psicólogos cognitivos afirman que el estímulo próximo es la imagen en la retina,
pues sostienen que el estímulo es la excitación del conjunto de puntos de la retina por las
energías físicas que provienen de los objetos del ambiente (estímulo distal). Consideran al
patrón de dichas excitaciones una representación a la que llaman imagen de entrada.
- los psicólogos ecologistas defienden que el estímulo es la estructura o patrón de luz
ambiental en un punto dado de observación.
Lo que afirman ambos grupos de psicólogos es intercambiable, puesto que no hay
imagen en la retina sin estimulación del patrón de luz. Por ello, desde ahora, se partirá de
considerar la imagen en la retina.
Pero si la imagen en la retina, o imagen de entrada, es no consciente y bidimensional,
nuestra experiencia perceptual es consciente, tridimensional y, según los psicólogos
cognitivos, es una representación a la que llaman imagen de salida.
¿Cómo a partir de los inputs luminosos que nos vienen de nuestro ambiente llegamos a
percibir las escenas y los objetos que se encuentran en ellas? Responder a esto supone
descomponer el procesamiento perceptual, el proceso de percibir el ambiente, en varios
procesos más simples cuyo estudio hay que realizar a la hora de explicar la percepción.
Dichos procesos constituyen los siguientes cuatro niveles de análisis:
1º formación de la percepción de la imagen de entrada, o análisis del estímulo global.
2º formación de la percepción tridimensional, o análisis de la estructuración del
ambiente.
3º formación de la percepción del objeto real, o análisis de las cosas del ambiente como
objetos realmente existentes, a lo que hay que añadir la percepción del movimiento; y, hasta
aquí no se es consciente.
4º formación de la percepción de las categorías naturales, o análisis del significado de
esos objetos.
Los principios que determinan la percepción humana son los que dirigen:
1º - la formación del “boceto o esbozo primario bruto”, mediante el análisis de
frecuencias espaciales y la detección de rasgos locales; y
- la formación del “esbozo primario completo”, mediante los principios de
agrupación y buena figura;
2º la percepción tridimensional, mediante las claves de profundidad como la
estereopsis, la perspectiva y el análisis de la textura;
3º la percepción del objeto como cosa real, mediante el reconocimiento de patrones, la
identidad de los objetos y los principios de las constancias perceptuales de forma, tamaño y
color; y,
4º la captación del significado, mediante las “ofertas” de los objetos de nuestro nicho
ecológico.
Existen diversas teorías explicativas de la percepción:
* el realismo ingenuo, defiende que percibimos el mundo así porque el mundo es así, lo
cual no es del todo cierto pues hay aspectos, en el plano de la realidad perceptiva, que no
coinciden con la realidad física y al revés.
* la teoría constructivista cognitiva, defiende que la percepción es una construcción de
la mente y se basa en la experiencia individual de cada uno.
* la teoría ecológica, sostiene que la percepción nos viene dada directamente por el
ambiente. Esta teoría se encuadra dentro del constructivismo genético, que se basa en la
ontogenia de la especie, no del individuo, y es propio de la escuela de la Gestalt, Piaget y la
ecología.
TEMA 25: DEFINICIÓN Y ANÁLISIS DEL PROCESO
PERCEPTUAL.

1. LA DEFINICIÓN DE LA PERCEPCIÓN.
No hay una definición de percepción común ni a las diversas posiciones teóricas, ni a
todos los autores que se encuadran en ellas.
De modo tradicional, se ha definido la percepción como “la aprehensión de la realidad
a través de los sentidos”.
Desde un punto de vista teórico, pueden distinguirse dos posiciones contrarias en el
estudio y definición de la percepción:
- las teorías de percepción indirecta.
- las teorías de percepción directa.

1.1. TEORÍAS DE PERCEPCIÓN INDIRECTA.


Defienden que la percepción es construida por el sujeto perceptor a partir de los datos
sensoriales. Difieren en el proceso al que acuden para explicar esa construcción. Entre ellas
están:
* el antiguo estructuralismo elementalista.- basa la construcción en algún proceso de
inferencia sobre los datos sensoriales. Fue la primera formulación de este tipo dentro de la
psicología experimental.
* la New Look.- considera que la percepción es una actividad adaptativa, impulsada por
las necesidades del sujeto.
* la psicología cognitiva moderna.- desde el punto de vista del procesamiento de la
información, resalta el papel funcional de la imagen, definiendo la percepción como proceso
de interpretación representativa de los inputs sensoriales consistente en la proyección en la
retina del patrón estimular de la luz reflejada en los objetos.
Para Marr, “la visión es un proceso que, a partir de las imágenes del mundo externo,
produce una descripción que es útil al observador y no está ensombrecida por información
irrelevante”.

1.2. TEORÍAS DE PERCEPCIÓN DIRECTA.


Sostienen que la percepción no es construida por el sujeto perceptor. Defienden que hay
una captación directa de la información suministrada por el medio ambiente. Afirman que la
construcción es sólo ecológica, del animal y del nicho ecológico a la vez. Esta posición fue:
- defendida por la escuela de la Gestalt, que incide en que percibimos totalidades, no
elementos puntuales. Este conjunto de elementos se organizan dinámicamente, de igual forma
(isomórficamente) que los principios de la física de la electricidad.
- reformulada y desarrollada por Gibson, máximo exponente de esta postura, quien
defiende que los estímulos perceptuales son los estímulos información, que son ciertas
relaciones como las producidas por la disposición óptica que forma la luz cuando se refleja en
el ambiente. Entiende la percepción visual como la recogida de información de los invariantes
en la estructura óptica ambiental.
Como definición convencional, la percepción puede concebirse como “un proceso de
información, según una cierta organización sensorial, ante una estimulación presente en el
ambiente”.
2. EL ANÁLISIS DEL PROCESO PERCEPTUAL.
Analizar psicológicamente el proceso perceptual implica analizar:
- el input o estímulo perceptual,
- el output o experiencia sensorial y
- el procesamiento perceptual.

2.1. EL INPUT PERCEPTUAL O ESTÍMULO PERCEPTUAL.


De él hay que conocer tres cosas:
- la clase de estímulo que es. Dentro de la clasificación de estímulos psicológicos,
Skinner señala tres tipos fundamentales:
a) reforzante, que consolida la respuesta;
b) discriminativo, no es causa ni efecto, sólo es condición;
c) elicitante o evocador, produce la respuesta.
Las características de linealidad y necesidad ponen de manifiesto que el estímulo
perceptual es un estímulo elicitante o evocador ya que es determinante del proceso perceptual.
No obstante, el aprendizaje perceptual se adquiere por reforzamiento y discriminación.
- su naturaleza. Para la postura tradicional es puntual y defiende el estímulo energía, y
para Gibson, es el estímulo información que viene a ser el patrón de luminancia, o hablando
psicológicamente de brillo, en el espacio y el tiempo que provoca la luz reflejada.
- dónde reside. Se encuentra en la disposición óptica ambiental para Gibson, y en la
imagen en la retina para los psicólogos cognitivistas.

2.2. EL OUTPUT PERCEPTUAL O EXPERIENCIA SENSORIAL O PERCEPCIÓN.


El resultado y output perceptual es:
- el resultado de una actividad que no es efectorial;
- es observable directamente pero no públicamente, por lo que se le denomina
experiencia interior;
- tiene siempre un carácter de organización, como un todo:
- las características que lo delimitan son:
a) una organización sincrónica, llamada configuración,
b) una organización diacrónica, que le da un carácter de actualidad,
c) una organización significativa, denominada objetualidad.
En relación con otras funciones y procesos del organismo, se sitúa con anterioridad a la
sensibilidad y con posterioridad a la memoria, el pensamiento y la motivación.

2.3. EL PROCESAMIENTO PERCEPTUAL.


Se sitúa entre el input y el output perceptual y se realiza mediante los cuatro procesos
mencionados anteriormente: a nivel de imagen de entrada; a nivel de la tercera dimensión; a
nivel de objeto y a nivel de categoría o significado de ese objeto.
Cada uno de los procesos consiste en transformar una representación en otra aplicando
un algoritmo.
TEMA 26: EL PROCESAMIENTO PERCEPTUAL A NIVEL DE
IMAGEN DE ENTRADA.

1. EL PROCESAMIENTO INICIAL DE IMÁGENES POR EL SISTEMA


VISUAL HUMANO.
El procesamiento inicial de imágenes o procesamiento temprano o a nivel de entrada es
el primer paso del procesamiento perceptual visual total.
Su objetivo es poner de manifiesto los cambios de grises (cambios de intensidad de
luminancia de la imagen de entrada detectados por los fotorreceptores de la retina) y la
estructura geométrica de esos cambios, mediante el cálculo de descripciones primitivas, pero
muy informativas, de los mismos, que requieren, para hacerlas explícitas, conocer la
estructura espacial de la imagen de entrada.
* Marr denominó esbozo primario bruto a esas descripciones primitivas porque,
aunque contienen los rasgos que permiten identificar el estímulo que percibimos, son un
bosquejo de él.
* Según los psicólogos cognitivos, existen dos direcciones de procesamiento en el
proceso perceptual:
- “bottom-up”, o guiado por los datos.- va desde lo inferior (datos elementales) a lo
superior de la mente (procesamiento de esos datos).
- “top-down”, guiado conceptualmente o por la hipótesis.- va de lo superior (máximo
procesamiento) a lo inferior de la mente (procesamiento inicial).
Ambas direcciones constituyen, para estos psicólogos, dos etapas fundamentales en el
proceso visual.
El procesamiento visual inicial, que origina el esbozo primario bruto:
- es “bottom-up”, va de la inferior a lo superior de la mente;
- parte de la estimulación de la retina, actuando directamente sobre la imagen de entrada
y se aplica de modo automático;
- produce, para los cognitivistas, una representación de la que no somos conscientes;
- su estudio implica analizar los procesos psicofísicos, computacionales y biológicos
que realiza el sistema visual humano para que se produzca el esbozo primario de la
percepción.

2. LA IMAGEN DE ENTRADA.
La imagen de entrada o imagen retiniana:
- es el patrón de activación fisiológica de las células fotorreceptoras retinianas,
producido por los rayos de luz reflejada o emitida por los objetos;
- constituye un muestreo espacial de la imagen;
- correspondería, en una imagen, a una distribución de luminancia o de valores de gris;
- fue concebida, por los psicólogos cognitivos, como una imagen de entrada
bidimensional, lo que permite digitalizarla y expresarla con una matriz de números en la que
cada uno de sus elementos, denominado píxel, representa valores de gris, posibilitando con
ello analizar la imagen mediante algoritmos matemáticos.
En esa matriz, el número de píxeles por fila y columna indica el tamaño de la imagen
digitalizada, mientras que su valor numérico expresa la luminancia o nivel de gris en el punto
correspondiente de la imagen. Los diferentes valores de luminancia se corresponden con los
distintos elementos de la escena visual (bordes, regiones, superficies, objetos, etc.).
Al representar valores de gris, la matriz digitalizada puede convertirse, nuevamente, en
una imagen.

3. EL ESTUDIO DEL PROCESAMIENTO PERCEPTUAL BASADO EN LA


IMAGEN DE ENTRADA.
El procesamiento perceptual basado en la imagen de entrada supone una serie de
procesos y representaciones componentes que tienen como finalidad detectar las
características de la imagen local, para después poder organizarlas y agruparlas globalmente.
Marr denominó esbozo primario bruto a esta serie de procesos y representaciones
componentes y esbozo primario completo a su organización y agrupación posterior.
* El esbozo primario bruto:
- busca hacer explícita la información espacial contenida en la imagen de entrada,
mediante el cálculo de una descripción de la estructura de intensidad local de sus niveles de
gris;
- incluye el resultado de los procesos de detección elemental que localizan en dicha
imagen fundamentalmente bordes;
- explicar cómo se produce este esbozo es el objetivo del procesamiento visual inicial.
* El esbozo primario completo:
- pretende hacer explícita la división de la escena visual en unidades totalizadoras, con
el fin de conseguir la visión tridimensional, el reconocimiento del objeto y la captación de su
significado.
La estructura espacial de la imagen hace referencia a que la información contenida en
ella existe:
1) al mismo tiempo en múltiples tamaños o escalas que una construcción geométrica;
2) en una orientación y localización en la escena;
3) tanto en la imagen considerada globalmente como localmente con relaciones
espaciales entre los elementos.
La importancia de la estructura espacial de la imagen radica en que a partir de ella se
pueden señalar las características de las representaciones de los bocetos primarios. Según
Palmer, éstas son:
- que las características del esbozo primario bruto se basan en la imagen y no en la
realidad exterior, por lo que los diversos niveles de gris definen los elementos de este esbozo;
- la geometría bidimensional de los esbozos, esto es, que los esbozos primarios bruto y
completo tienen una estructura espacial bidimensional por lo que se pueden representar de
forma analógica o simbólica siempre que el sistema de coordenadas se corresponda a la
estructura de la retina.
Las teorías explicativas del procesamiento visual inicial son:
- el análisis mediante patrones globales por frecuencias espaciales (mediante el
algoritmo de Fourier).
- el análisis por detectores de rasgos locales o bordes (mediante el algoritmo de Marr y
Hildreth).
Actualmente se defiende al análisis de frecuencias espaciales local.

4. LOS CANALES PSICOFÍSICOS.


Percibir visualmente requiere, como paso previo, captar automáticamente la estructura
espacial del estímulo, esto es, codificar la estructura espacial de la imagen de entrada. Dicha
captación o codificación se estudia desde tres planos distintos:
* fisiológico, estudia la anatomía y fisiología de los sistemas celulares que participan en
la visión;
* psicofísico, es el plano propio de la psicología, se ocupa de los fenómenos
perceptuales psicológicos y, en él:
- se estudia, de modo amplio, cómo la mente procesa la información que nos transmite
la luz;
- se habla de niveles de luminancia o niveles de gris, realidades físicas, y del brillo,
fenómeno psicológico en relación con la luminancia, poniéndose de manifiesto que la relación
psicofísica entre ellos es directa;
- se analiza la información del ambiente dada por las diferencias de luminancia o los
diversos niveles de gris percibidos al ver una imagen en blanco y negro.
* teorético, trata de las teorías explicativas perceptuales. Estudia, por tanto, la
explicación que de la percepción da:
- Gibson, dentro del marco teórico de la ecología (directa);
- la Gestalt, dentro del marco teórico del isomorfismo (directa);
- los psicólogos cognitivos actuales, desde un marco teórico de procesamiento de la
información (indirecta).
Independientemente de la postura teórica que se adopte, en la actualidad se defiende que
las células del sistema nervioso y del cerebro analizan el estímulo y sintetizan el boceto
primario por frecuencias espaciales, lo que supone admitir la existencia, hipotética, de canales
psicofísicos.
El concepto de canal psicofísico:
- es un constructo hipotético.
- se refiere a una estructura bidimensional uniforme de sensores encargada de un área
del campo visual. La zona codificada por cada sensor se llama campo receptivo.
- conlleva que cada canal estaría sintonizado a un rango concreto de frecuencias y
longitudes de onda, permitiendo con ello, analizar la imagen y sintetizar su estructura
espacial o boceto primario bruto.
- supone admitir que los canales serían filtros bidimensionales paso-banda en frecuencia
espacial y orientación.
Existen dos teorías sobre los canales psicofísicos que constituirían el sistema visual
humano:
- la teoría unicanal.- se basa en que el sistema visual sería un canal único que filtraría
todo el espectro de la imagen de entrada;
- la teoría multicanal.- sostiene que el sistema visual sería un conjunto de detectores
independientes, precedidos cada uno por un filtro sintonizado a una frecuencia distinta.

Todo esto supone la posibilidad de que el sistema visual humano:


- sea diferencialmente sensible a los componentes espectrales de la imagen;
- efectúe un análisis espectral de la misma;
- la representación de salida lo sea en el dominio de la frecuencia espacial.

5. CANALES DE FRECUENCIA ESPACIAL.


Cualquier imagen se puede describir a través del análisis de sus frecuencias espaciales,
empleándose como algoritmo matemático el Análisis de Fourier.
* La frecuencia espacial:
- es el número de elementos oscuros y claros que hay dentro de una unidad espacial en
una dirección.
- su mejor ejemplo es el enrejado de barras, o enrejado sinusoidal, un patrón visual muy
simple que se compone de una serie alternativa de barras brillantes y oscuras.
* El estudio de los canales de frecuencia espacial:
- tiene como objetivo explicar la codificación del boceto primario.
- se enmarca dentro del enfoque psicofísico del procesamiento visual, que considera que
el sistema visual consiste en muchos canales solapados entre sí y sintonizados cada uno a un
rango de frecuencias espaciales y a una orientación.
* Campbell y Robson han desarrollado la teoría de los canales psicofísicos de frecuencia
espacial. Defienden, y se ha comprobado experimentalmente, que:
- el sistema visual funciona como un conjunto de detectores independientes.
- cada uno de ellos está precedido de un filtro sintonizado a una frecuencia, por lo que
deja pasar únicamente una sola banda estrecha de frecuencias.
- cada canal tiene su propia función de sensibilidad al contraste:
a) las bajas frecuencias informan de los detalles gruesos y de conjunto.
b) las altas frecuencias informan de los detalles finos.
* El análisis de Fourier es la técnica matemática empleada para realizar el análisis de
frecuencias espaciales, pues permite descomponer una imagen compleja, o un rasgo
localizado de ella, en sus componentes primitivos, los cuales, si se sumaran volverían a crear
la imagen o el rasgo localizado original. El análisis de Fourier:
- se compone de:
a) el espectro de potencia o amplitud.- especifica la intensidad o distancia que hay
entre lo más negro de una barra y lo más blanco de otra.
b) el espectro de fase.- especifica la fase de cada enrejado, esto es, si comienza por
barra blanca o negra.
- posibilita describir el estímulo:
a) en el dominio del espacio (gráficamente), mediante la onda cuadrada.
b) en el dominio de la frecuencia, mediante el espectro del estimulo visual.
Si se describe el estímulo perceptual mediante una función matemática, la luminancia
variará ondulatoriamente en forma:
a) sinusoidal (cuando comienza con una barra negra).
b) cosenoidal (cuando el enrejado se inicia con una barra blanca).
- tiene tres tipos de aplicaciones en lo que se refiere a la percepción:
a) descripción del estímulo perceptual en el dominio del espacio (onda cuadrada).
b) caracterización de sistemas perceptuales (canales psicofísicos de frecuencia espacial).
c) aplicación tecnológica, mediante el filtrado de imágenes, que explica fenómenos
perceptuales como los descritos por la Gestalt.
La psicofísica visual actual es distinta y más complicada que la psicofísica clásica, pues
lo que registra es la respuesta del sujeto en función de las propiedades físicas
configuracionales o estructurales del estimulo, para lo que se producen una serie de
procesamientos de los que el individuo no es consciente.

6. LA TEORÍA DE LA FRECUENCIA ESPACIAL PARA EXPLICAR EL


BOCETO PRIMARIO BRUTO.
La imagen perceptual se construye ensamblando muchos primitivos que se describen en
enrejados sinusoidales, los cuales se caracterizan por cuatro parámetros:
- frecuencia.- número de ciclos luz-oscuridad (pares de barras blanca-negra) por grado
de ángulo visual (unidad estable para la medida de la frecuencia espacial ya que se adapta a la
distancia del objeto por lo que la frecuencia no varía).
- orientación.- ángulo del eje de las barras con la vertical, medido en grados en el
sentido contrario al de las agujas del reloj.
- amplitud.- diferencia entre la parte más brillante y la más oscura de cada par de barras
del enrejado.
- fase.- indica en qué punto comienza el enrejado, pues se refiere a la posición de éste a
lo largo de su dimensión sinusoidal en relación a un punto de referencia.
La onda cuadrada puede descomponerse en sus primitivos o componentes armónicos
elementales. Éstos son múltiplos impares de su frecuencia fundamental y su amplitud varía en
función de su orden.

7. CONCLUSIÓN SOBRE EL BOCETO PRIMARIO BRUTO SEGÚN EL


ANÁLISIS DE FRECUENCIAS ESPACIALES.
En el análisis de Fourier de una imagen, ésta es la suma o integración de muchos
enrejados sinusoidales, a los cuales se denomina componentes de la imagen. Cada
componente se representa por su amplitud y su fase.
Los valores del grado de contraste entre las partes con más luminancia y con menos
constituyen el espectro de amplitud; mientras que el espectro de fase lo forman los valores
que especifican dónde comienza cada enrejado. Ambos espectros definen la transformada de
Fourier. La importancia de la transformada de Fourier radica en que hace una diferencia entre
los detalles finos de la imagen de entrada y sus rasgos más gruesos (las altas frecuencias
expresan los finos y las bajas frecuencias los gruesos).
Para la teoría de los canales psicofísicos, éstos sintonizarían con rangos de frecuencias y
analizarían la imagen, o partes de ella, en sus espectros de amplitud y fase; mediante el
filtrado de las bajas o altas frecuencias, se hallarían los primitivos en que se analizaría la
imagen de entrada, que constituirían el boceto primario bruto.
Con ello estaría descrita la información espacial de la imagen.

TEMA 29: EFECTOS DEL ANÁLISIS DE FRECUENCIAS


ESPACIALES.

1. PREDICCIONES A PARTIR DE LA TEORÍA DE LOS CANALES DE


FRECUENCIA ESPACIAL
Antes de enumerar las principales predicciones, debemos recordar que el contraste es
un índice de la diferencia de intensidad luminosa entre las barras claras y oscuras en un
enrejado de barras. Par tanto, medir el umbral de contraste de un enrejado oscurecido sería
hallar el momento en que deja de percibirse como un campo gris homogéneo y comienza a
percibirse como tal enrejado.
- la 1ª predicción hace referencia a los umbrales de contraste de la onda cuadrada.
Según la teoría de la frecuencia espacial, el enrejado de la onda cuadrada se empieza a
percibir como tal cuando aparece un alto contraste entre sus componentes.
- la 2ª predicción se refiere a que las personas somos capaces de hallar diferencias entre
un enrejado de onda cuadrada y un enrejado sinusoidal con la misma frecuencia.
Estas predicciones fueron confirmadas por los experimentos de Blackemore y Campbell,
quienes midieron el umbral de contraste de un enrejado oscurecido. De sus resultados,
llegaron a las siguientes conclusiones:
- hay una relación inversa entre el umbral del contraste y la sensibilidad al contraste;
cuando el umbral del contraste es muy bajo para frecuencias de un ciclo (por grado de ángulo
visual), la sensibilidad al contraste aparece muy alta.
- la exposición continuada a un enrejado en una frecuencia y orientación determinadas
produce una adaptación, llamada adaptación selectiva, en la cual los sujetos son menos
sensibles al contraste.
Esta adaptación selectiva es muy importante, porque es totalmente coherente con la
existencia de los canales psicofísicos analizadores de frecuencia espacial. Así, cada canal se
adapta a la frecuencia y orientación a la que está sintonizado y, con el tiempo, los mecanismos
de dicho canal se fatigan, respondiendo con menos fuerza, por lo que la sensibilidad al
contraste disminuye y aumenta el umbral del contraste.
La función de la sensibilidad al contraste con enrejados sinusoidales se ha empleado
para:
- describir la capacidad del sistema visual;
- explicar la aparición de fenómenos perceptivos descritos por la Gestalt, como la
percepción de la forma;
- medir la agudeza visual, o capacidad de resolución, de percibir los detalles más
pequeños de una imagen o escena, o de detectar o reconocer algo, sobre un fondo uniforme o
a gran distancia. Dicha medida puede realizarse como resolución o como captación del
contraste.
Por tanto, el Sistema Visual Humano se caracteriza por:
- la sensibilidad al contraste;
- la agudeza visual;
- la percepción de la forma.

2. INFORMACIÓN CONTENIDA EN LAS DIFERENTES ZONAS DEL


ESPECTRO BIDIMENSIONAL DE UNA IMAGEN.
En el espectro bidimensional de una imagen:
- la amplitud: viene dada por el brillo.
- la frecuencia: viene dada por la distancia de los puntos del espectro al centro.
Centrándonos sólo en el estudio de la frecuencia, la información contenida en el
espectro bidimensional de una imagen viene dada por las diferentes frecuencias. Cada
frecuencia nos da información de algún aspecto concreto de la imagen; así:
- las frecuencias bajas nos informan sólo del aspecto global de la imagen;
- las frecuencias medias nos permiten reconocer la imagen;
- las frecuencias altas nos dan información de los detalles finos de la imagen.
Por tanto, cada banda de frecuencia espacial nos indica una escala o nivel de resolución
y cada región espectral nos indica un nivel de resolución o escala en una orientación concreta.
El algoritmo que extrae la información se llama filtro. Un filtro está sintonizado a un
rango concreto de frecuencias cuando deja pasar dicho rango. Recibe, en función de ello, los
siguientes nombres:
- filtro de paso-bajo, si deja pasar las frecuencias que están por debajo (bajas
frecuencias);
- filtro de paso-alto, si deja pasar las frecuencias que están por encima (altas
frecuencias);
- filtro de paso-banda, si deja pasar las frecuencias que están dentro de ese rango.
El filtro está orientado cuando deja pasar las frecuencias en un determinado rango de
orientación.

3. APLICACIONES TECNOLÓGICAS.
El filtrado es mucho más fácil de conseguir en el dominio de las frecuencias que en el
dominio del espacio.
Diversos autores, como Ginsburg, defienden que la aplicación del filtrado de paso-bajo
de imágenes por los canales psicofísicos, mediante la teoría del análisis de frecuencias
espaciales, permite explicar:
- los fenómenos de la Gestalt: como el agrupamiento de estímulos y la aparición de la
forma;
- los contornos ilusorios;
- las ilusiones geométricas, como la de Müller-Lyer;
- el fenómeno de la pregnancia.
Algunos autores indican que los fenómenos de la Gestalt se explicarían al procesarse el
estímulo a nivel de objeto.

4. LA FISIOLOGÍA DE LOS CANALES PSICOFÍSICOS DE


FRECUENCIA ESPACIAL.
Dado que los canales psicofísicos de frecuencia espacial son mecanismos hipotéticos
inferidos a partir de la conducta, darles realidad implicaría encontrar, en el cerebro humano,
los mecanismos fisiológicos responsables de producir la representación de la imagen
estimular que pondría de manifiesto su estructura espacial.
Hay que tener en cuenta que el papel asignado al cerebro humano en la explicación del
proceso perceptual, no sólo ha variado en los diversos enfoques teóricos sino que ha estado
determinado por los resultados experimentales obtenidos. Así:
- en el enfoque ecológico de Gibson, se defendió que la labor del cerebro era buscar y
extraer información del medio a partir de una distribución, continuamente cambiante, de
energía ambiental;
- en el isomorfismo de la Gestalt, se postuló una explicación fisiológica totalista en
base a campos bioeléctricos, formados en las áreas corticales cerebrales, iguales a lo
acontecido en la percepción visual;
- los experimentos de Hubal y Wiesel pusieron de manifiesto que el cerebro actúa de
manera elementalista por células, aunque no hay acuerdo a la hora de explicar cómo actúan
dichas células:
* por un lado, se defiende que son detectores globales de líneas, barras, pequeñas
manchas y bordes;
* por otro lado, se defiende la hipótesis de De Valois, basada en el punto de vista de la
psicofísica, que sostiene que las células cerebrales analizan el estímulo en frecuencias
espaciales locales (teoría del analizador espacial).
De Valois, a partir del estudio psicofísico de la estructura espacial, ha intentado inferir
los mecanismos neurales (fisiológicos) subyacentes:
- en 1er lugar, desde que el patrón de luz incide sobre la retina intervienen los conos y
bastones para transformar dicho patrón de luz en una matriz de impulsos nerviosos; conos y
bastones, primera capa de células de la retina, realizan, por tanto, un muestreo de la imagen de
entrada.
- en 2º lugar, la matriz de impulsos nerviosos activa la capa de células ganglionares
retinianas, que inician el procesamiento a nivel de imagen de entrada. En este sentido, se diría
que estas células, cuyos axones constituyen el nervio óptico, son las que comienzan a realizar
el análisis en frecuencias espaciales de la imagen. Y esto ocurre porque:
* el campo receptor de una célula visual es el área de la retina que, cuando se comienza
o se deja de estimular, activa la respuesta de esa célula;
* una célula ganglionar visual tiene un campo receptivo constituido por un centro y una
periferia, de forma que si en el centro se produce la respuesta on (activada por iniciación de la
estimulación), en la periferia se da la respuesta off (activada por cese de estimulación) y al
revés;
* en función de la relación entre la respuesta del centro y la de la periferia, las células
ganglionares retinianas se llaman células X o Y y son las células ganglionares tipo X las que
realizarían el análisis de frecuencias espaciales de la imagen, actuando como filtros de las
diferentes frecuencias;
- en 3er lugar estarían las células del córtex visual que no responden tanto a puntos de luz
como a la orientación del estímulo. Pueden ser:
* complejas e hipercomplejas, responsables de los patrones visuales en movimiento y
de los rasgos superiores presentes en el patrón;
* simples, se ocupan de los aspectos espaciales de la imagen: posición, tamaño, forma y
orientación.
Según esto, el córtex visual estaría formado por módulos donde convergen las neuronas
apropiadas para analizar trozos concretos de la retina. En estos módulos las células simples
más estrechamente sintonizadas se encargan del análisis espacial de la imagen.
Los experimentos realizados sugieren que, específicamente, son las células del córtex
cerebral estriado las que realizan un análisis de frecuencias espaciales locales de las imágenes
que llegan a la retina dado que sus campos receptivos son muy limitados espacialmente.
El análisis local de frecuencias espaciales se puede realizar en muchos pequeños trozos
de enrejados sinusoidales que se desvanecen a partir del centro de su campo receptivo, lo que
da lugar a la gráfica de una función llamada función de Gabor.
De las investigaciones realizadas se deduce que:
- son las células del área VI del córtex las que realizan un análisis de frecuencia espacial
local del input visual;
- la teoría de la frecuencia espacial y la teoría de los detectores de líneas y bordes no
serían excluyentes si los detectores globales se localizaran en un nivel diferente al del área VI
en el que las funciones de Gabor pudieran combinarse para formar líneas y bordes.
TEMA 32: IMPLEMENTACIÓN NEURAL Y CONCLUSIÓN
TEÓRICA FINAL SOBRE EL BOCETO PRIMARIO BRUTO.

1. CONCLUSIÓN FINAL SOBRE EL ESBOZO PRIMARIO BRUTO.


En la explicación del esbozo primario bruto se distinguen dos posturas teóricas:
* la teoría de la codificación de la imagen por rasgos locales:
- defiende que el sistema visual humano está constituido por detectores de
características o rasgos locales mediante los cuales efectúa una representación de la imagen de
entrada basada en bordes, barras, terminaciones y manchas;
- se basa en el supuesto de Hubel y Wiesel sobre la existencia de células especializadas
en la detección de rasgos concretos.
* la teoría de la codificación de la imagen por patrones globales:
- defiende que el sistema visual humano está constituido por detectores sintonizados a
diferentes rangos de frecuencia espacial y orientación que permiten describir la imagen
mediante el espectro de frecuencias, pues considera que una imagen es el resultado de añadir
una serie de enrejados sinusoidales;
- parte de considerar la existencia de canales psicofísicos que codifican la imagen de
entrada de modo global, mediante análisis de frecuencia espacial llevado a cabo por análisis
de Fourier, método matemático que permite describir un patrón estimular por medio de sus
componentes sinusoidales.
Dado que es factible la actuación propuesta por ambas teorías, el problema estriba en
determinar la que sigue el sistema visual humano.
En la actualidad, se propone una postura integradora que defiende una codificación
conjunta por patrones globales y rasgos locales que podría realizarse mediante dos análisis
diferentes:
* análisis multiescala de la imagen, en el que se utilizaría el algoritmo de Marr y
Hildreth para la obtención de bordes.
* análisis espectral local de la imagen, en el que se emplearía la expansión de Gabor-
Marcelja que parte de describir la imagen mediante análisis de Fourier y entre cuyas ventajas
está:
- el permitir entender más claramente algunos fenómenos perceptivos, como los
señalados por la Gestalt;
- no perder información por ser la representación global; aunque no está claro si los
campos receptores localizados de las células de la retina efectúan también un análisis de
Fourier global.
Uno de los mayores defensores de esta postura integradora es Palmer, quien sostiene
que ambas teorías no son contradictorias, sino que representarían dos pasos consecutivos
realizados por el sistema visual humano en el procesamiento de la imagen de entrada, llevados
a cabo en diferentes capas del córtex.

2. LA SITUACIÓN TEORÉTICA ACTUAL.


En la explicación de cómo las células del córtex estriado, descubiertas por Hubel y
Wiesel, realizan el procesamiento perceptual de la imagen de entrada cabe señalar:

* el punto de vista psicofísico, que defiende que dichas células:


- podrían ser el sustrato fisiológico de los canales psicofísicos;
- estarían realizando localmente un análisis de Fourier basado en funciones de Gabor.
* el punto de vista computacional de Marr, según el cual esas células:
- serían la implementación de los mecanismos de detección de bordes en diferentes
escalas espaciales.
* la postura integradora, actualmente, en donde se sitúa Palmer, quien defiende que:
- los distintos procesamientos espaciales de la imagen de entrada pueden ser efectuados
por capas diferentes del córtex visual;
- habría una capa de células, situada en el área VI, que realizaría un procesamiento
mediante análisis de Fourier local de frecuencias espaciales y orientación;
- después, otra capa de células lo integraría y efectuaría el proceso de detección de
bordes, pues en ella habría analizadores de bordes, de curvatura, de textura y otros
analizadores.
Con ello, este autor ha elaborado un esquema de la posible implementación fisiológica
de la teoría computacional.
TEMA 33: LA ORGANIZACIÓN PERCEPTUAL (I).

1. LA ORGANIZACIÓN PERCEPTUAL ¿ES UN PROCESO TEMPRANO O


TARDÍO?.
Una de las cuestiones planteadas en el estudio de la organización perceptual ha sido
determinar si dicho organización es un proceso temprano o tardío, esto es, si se trata de un
procesamiento a nivel de boceto primario completo o si es ya percepción de objetos.
Si bien el hecho de que la mayoría de los principios de organización perceptual fueran
automáticos parecía apoyar un procesamiento temprano a nivel de boceto primario completo,
se ha comprobado experimentalmente la posibilidad tanto de procesamientos tempranos como
tardíos en la organización perceptual.

2. PROBLEMAS METODOLÓGICOS EN EL ESTUDIO DE LA


ORGANIZACIÓN PERCEPTUAL.
A menudo, en el estudio de la percepción se hace referencia a dos conceptos con una
clara diferencia metodológica: el experimento y la demostración fenomenológica.
La demostración fenomenológica:
- es demostración porque no es exactamente un experimento.
- es fenomenológica por basarse en las experiencias sensoriales o fenómenos que cada
uno de los sujetos percibe pero que no pueden ser observados de modo público.

3. LA PERCEPCIÓN DE FORMAS DISCRETAS EN LA ESCENA. LA


PERCEPCIÓN EN DOS DIMENSIONES (EL BOCETO PRIMARIO
COMPLETO).
Nuestro mundo lo percibimos mediante un conjunto de escenas constituidas por objetos
relacionados entre sí. Tanto las escenas como los objetos están estructurados conforme a lo
que se denomina organización perceptual.
La organización perceptual visual se logra a través del sistema visual, no viene dada por
la realidad física sin más.
Aunque con anterioridad a los psicólogos de la Gestalt se pensaba que la organización
perceptual se adquiría por aprendizaje, fueron estos psicólogos los que dudaron de ello,
debido a que había principios automáticos en el recién nacido.
Sobre la organización perceptual los psicólogos de la Gestalt, en concreto su fundador
Wertheimer, pusieron de manifiesto que:
- el estímulo proximal está en la imagen en la retina, considerando como “el error de
experiencia” la creencia de que la explicación perceptual está en la simple correspondencia
entre las estructuras de la realidad ambiental y de la experiencia perceptual, esto es, creer que
la percepción parte del estímulo distal, no del proximal.
- existen principios propios automáticos, de organización perceptual, que explicaron
fisiológicamente mediante el isomorfismo.
Estos procesos automáticos de organización perceptual han sido explicados:
- ecológicamente, por Gibson, quien defiende que el estímulo proximal estaría en la
disposición de la estructura de la luz reflejada en el estímulo distal.
- desde la teoría del procesamiento de la información, coincidiendo con la Gestalt en
defender que el estimulo proximal está en la imagen en la retina.
Algunos autores señalan que estos procesos son anteriores al conocimiento y a la
experiencia; esto es, que la organización perceptual es un proceso temprano. En cambio, otros
como Palmer defienden que la organización perceptual es un proceso tardío, posterior a la
percepción de la tercera dimensión y a la constancia de los objetos.

4. LA ORGANIZACIÓN PERCEPTUAL.
* La organización perceptual trata:
- cómo descripciones del nivel inferior, tales como bordes y esfericidades, conexión de
varios segmentos de bordes o barras, etc., se organizan en estructuras perceptuales mayores.
- cómo y por qué una parte de la información visual se agrupa en un objeto o en una
superficie.
* En el estudio de la organización de la percepción humana, en concreto la percepción
de la forma, destacan las aportaciones realizados por los psicólogos de la Gestalt. Para éstos:
- percibimos totalidades, no elementos puntuales, pues el todo es diferente de la suma
de sus partes.
- la organización perceptual no se debe a una suma de elementos que se asocian entre sí,
sino a una estructuración de fuerzas, y el primer estadio de esa organización es en “todos”
funcionales.
- para estudiar las fuerzas toman como modelo los campos dinámicos de la física
eléctrica, suponiendo que la estructura de fuerzas que determinan la organización del estímulo
es isomórfica a la estructura de fuerzas determinantes en el campo cerebral y en el campo
perceptual.
- así, la organización perceptual no depende tanto del significado de los objetos ni de la
acción de la experiencia adquirida como de la organización dinámica de fuerzas, tanto en el
mundo físico, como en el fisiológico y en el psicológico.
- las fuerzas de cohesión y segregación son las responsables de que las escenas se
organicen en percepciones de superficies y objetos.
- la igualdad de estimulación produce fuerzas organizativas de cohesión.
- la desigualdad de estimulación produce fuerzas organizativas de segregación, siempre
que esa desigualdad constituya un contraste en la estimulación, pues un campo homogéneo o
ganzfeld no permite ninguna percepción.
- al ser los “todos” funcionales configuraciones de dos componente, figura y fondo, la
organización perceptual más básica es la organización figura-fondo:
- es la primera organización.
- la figura es la región más estructurada y aparece como objeto.
- el fondo es la región más indiferenciada y aparece como la extensión sobre la que se
sitúa la figura.
- Rubin señaló las siguientes características de la figura:
a) está limitada por el contorno.
b) tiene una forma definida.
c) resalta sobre un fondo.
d) se percibe como un objeto.
e) su color es más denso y sólido.
f) se percibe más cercana al observador.
g) es más recordada.
El carácter adquirido o no de la organización de la figura-fondo ha sido objeto de
abundante discusión:
- los psicólogos de la Gestalt defienden que algunos principios de organización básicos
no son adquiridos sino que se deben a la naturaleza misma de las fuerzas que se organizan en
campos.
- la psicofisiología de hoy apoya en este sentido a la Gestalt, aunque no en lo referente a
la existencia de campos de fuerzas bioeléctricos.
- en la actualidad, se piensa que la configuración figura-fondo es lo que nos hace
atender más a la región de la escena que se percibe como figura. Además el hecho de que la
figura llame más la atención tiene un sentido ecológico.
*A partir de aquí, formularon tres grupos de principios de organización perceptual:
- principios determinantes de la organización figura-fondo.
- principios de agrupación perceptual.- intentan explicar por qué unos elementos se
agrupan de una forma y no de otra; son principios más concernientes con la cohesión que con
la segregación y están probados experimentalmente.
- principios de organización de las totalidades.- pretenden explicar por qué una
configuración ocurre con mayor probabilidad que otra.
4.1. Principios determinantes de la Organización Figura-Fondo.
- orientación.- la articulación de la figura se produce con mayor facilidad en las
orientaciones vertical y horizontal.
- tamaño relativo.- en circunstancias iguales, las áreas de menor tamaño tienden a
percibirse como figuras.
- área envolvente y envuelta.- las áreas envueltas tienden a percibirse como figuras y
las envolventes como fondo.
- simetría.- en igualdad de circunstancias, las áreas simétricas tienden a articularse
como figura mientras que las asimétricas lo hacen como fondo.
- convexidad de los márgenes.- las áreas convexas tienden a percibirse como figura y
las cóncavas como fondo.
4.2. Principios de Agrupación de estímulos.
- proximidad.- en igualdad de circunstancias, los estímulos más cercanos tienden a
percibirse agrupados.
- semejanza.- los estímulos más semejantes tienden a percibirse como formando parte
de un mismo “todo” perceptual, en igualdad de circunstancias; ocurre con la figura, el color,
la textura y la inclinación.
- buena continuación o dirección.- en circunstancias iguales, los estímulos que
presentan entre sí una continuidad tienden a percibirse formando parte de la misma figura.
- destino común.- los estímulos que se mueven en la misma dirección tienden a
percibirse agrupados.
4.3. Principios de Organización de las Totalidades.
- pregnancia o buena figura.- es para los psicólogos de la Gestalt el principio más
importante de organización perceptual. De manera general, se refiere a que tendemos a
percibir las figuras del modo más sencillo, simétrico, completo y perfecto posible.
- cierre o clausura.- alude a que una figura incompleta tiende a percibirse como
completa.
En esta línea, Navon cree que hay una cierta organización temporal, de tal manera que
se procede desde una estructuración más global hacia un análisis con más detalle. La
conclusión de Navon es que el procesamiento global precede al procesamiento de las partes.

5. CONCLUSIÓN SOBRE LOS PRINCIPIOS DE ORGANIZACIÓN


PERCEPTUAL.
Desde los psicólogos de la Gestalt, se ha adelantado poco en el descubrimiento de
nuevos principios de organización perceptual.
Los estudios realizados abarcan:
- estudios de la cuantificación del estímulo en unidades de información;
- estudios desde el procesamiento de la información;
- estudios sobre los analizadores de frecuencias espaciales, línea de investigación que ha
intentado fundamentar experimentalmente los principios de la Gestalt.

6. POTENCIA RELATIVA DE LOS PRINCIPIOS DE ORGANIZACIÓN.


Experimentalmente, se ha intentado estudiar la potencia relativa de los principios de
organización perceptual, es decir, estudiar qué principio de organización es más potente
cuando concurren dos de ellos a estructurar figuras distintas, algo importante en campos
aplicados como publicidad y cinematografía.
Aunque no hay resultados definitivos, parece que el principio de la pregnancia es más
potente que los otros principios organizacionales.

7. VALORACIÓN CRÍTICA.
Las críticas realizadas a los principios de organización perceptual son:
- no todos los principios son determinantes, pues con un pequeño esfuerzo puede
invertirse la percepción figura-fondo.
- no toman en cuenta fenómenos como las ilusiones, la constancia y los fenómenos de
transposición.
- la Gestalt no ha ofrecido una explicación válida de ellos, sólo una descripción de los
mismos.
En la actualidad hay una vuelta al estudio de los principios gestálticos, los cuales siguen
siendo ciertos en lo psicológico.

TEMA 34: LA ORGANIZACIÓN PERCEPTUAL (II). LA ESCENA


PERCEPTUAL.

1. LAS RELACIONES EXTERNAS DE LOS OBJETOS. LA ESCENA


PERCEPTUAL.
Los objetos no los percibimos de manera aislada, sino ubicados en escenas con las que
establecen determinadas relaciones.
Una escena es todo el campo visual que percibimos en un momento determinado desde
un punto concreto de observación. Sus principales características son:
- está compuesta por objetos;
- se establecen relaciones entre los objetos;
- se establecen relaciones entre cada objeto y el conjunto de la escena:
- se responde más bien a otra clase de principios organizacionales, aunque también
pueden actuar algunos de los principios señalados por la Gestalt, los cuales determinan
automáticamente la constitución de objetos discretos;
- en su delimitación juegan un papel importante los bordes y las líneas, pudiéndose
reconocer dentro de ella regiones determinadas por ambos que se corresponden con cambios
de luminancia;
- un componente a destacar en la escena es su textura. La textura:
- se refiere a la estructuración de los elementos que pueblan la escena;
- sus distintos tipos producen regiones diferentes dentro de la escena.
- las características de la textura que producen esa división de la escena perceptual en
regiones son orientación, brillo, color, tamaño y movimiento, dándose tres tipos de
explicación:
1) se debe a una actividad relacionada con la atención por enfocar la percepción a unos
elementos y no a otros;
2) ocurre porque existen ciertos elementos de la textura y su gradiente para los que el
sistema visual tendría detectores específicos;
3) se propone un algoritmo especial según el cual el sistema visual se colocaría en tres
estadios distintos al percibir la textura; dichos estadios serían:
a) un estado de filtro;
b) un estado de inhibición lateral;
c) un estado de detección de los bordes.
Parece que la actividad del sistema nervioso funciona según este modelo.
Lo verdaderamente importante en la constitución de la escena y su segregación en
regiones es que parece haber dos momentos de procesamiento:
- uno temprano, en el que intervendrían los mecanismos de detección de bordes y
líneas;
- otro más tardío, en el que ya se hubieran establecido los agrupamientos de los
elementos en objetos y sus propiedades perceptuales constantes de forma, tamaño y brillo.

2. LA INTERPOLACIÓN VISUAL.
El fenómeno de la interpolación visual se refiere a la capacidad del sistema visual de
percibir las partes de los objetos ocultadas por otros, dado que muchos objetos de nuestro
mundo son opacos.
En él tiene importancia la ley del cierre, considerada como un corolario de la
pregnancia.
Su estudio debe determinar qué características del estímulo son importantes para saber
cuándo y por qué un observador completa la visión de un objeto tapado parcialmente.

3. LA COMPLEMENTACIÓN VISUAL.
La complementación visual o amodal consiste en que el sistema visual percibe de
manera automática objetos y superficies, que en realidad están parcialmente ocultos, como si
fueran totales y completos en su forma, textura y color. Se denomina amodal porque la parte
que es complementada no se basa en la percepción real del estímulo por el sistema humano.
Fue interpretada durante mucho tiempo como algo derivado del estudio de las claves
pictóricas de la tercera dimensión, por lo que no se le dio mucha importancia.
Con respecto a la organización de la escena perceptual, se la consideró inicialmente
como efecto del pensamiento pero, en la actualidad, se la reconoce como un proceso
propiamente perceptivo.
Para entenderla, es muy importante la distinción realizada por Kanizsa entre:
- representación mental.- se refiere a algo no presente delante de nosotros, que puede
ser pensado y que no tiene efectos perceptivos, por lo que es algo influenciable, dependiendo
de nuestra experiencia y no de nuestra voluntad.
- presencia perceptiva.- implica algo que es visto. En este sentido la complementación
visual es una complementación perceptiva que se caracteriza por ser algo fenoménico, no
pensado, no influenciable e independiente de nuestra voluntad, esto es, automático.
Los efectos funcionales que presenta, o efectos que están en función de la existencia o
no de complementación visual, son:
- aumento de la cantidad de color o saturación;
- creación de objetos visuales diferentes;
- efectos de postimagen;
- expansión y contracción de objetos.
En este sentido, Kanizsa ha defendido que la tendencia a la complementación amodal de
líneas y superficies que están perceptivamente incompletas es el principal factor causal de la
formación de superficies anómalas.
El fenómeno de la complementación visual se ha explicado:
- por la intervención de varios principios gestálticos de organización perceptual como
la simplicidad, la proximidad, la buena continuación y el papel de la experiencia pasada;
- desde diversas teorías, por la actuación de un único principio:
- en la teoría de la familiaridad, ese principio es el papel de la experiencia aprendida;
- en la teoría de la simplicidad de la figura, el principio es el de la pregnancia.
No obstante, hay que decir que ninguno de estos principios es capaz, por sí solo, de
explicar todos los fenómenos de complementación amodal.
Actualmente, se ha intentado dentro de una teoría ecológica dar respuesta
computacional a la complementación amodal.

4. LOS CONTORNOS SUBJETIVOS (ILUSORIOS).


El fenómeno de los contornos subjetivos o ilusorios consiste en la percepción
automática de contornos que no existen en la realidad física exterior. Se denomina contornos
subjetivos porque esos contornos sólo existen en la percepción.
Es un ejemplo de la teoría de la Gestalt, pues se debe a la estructuración del todo y no
de las partes.
Kanizsa prefiere llamarles “contornos anómalos o sin gradiente” porque en el estímulo
falta el escalón de luminancia. Describe sus propiedades mediante cinco características:
1) transformaciones del brillo en una zona del campo visual que diferencian esa zona de
las contiguas en la experiencia perceptual.
2) estratificación de los planos en tres dimensiones.- alude a que esas transformaciones
influyen en la percepción de la tercera dimensión, ocasionando que la zona más brillante se
perciba situada encima o delante de las otras.
3) presencia del margen.- se refiere a que la zona delimitada por los contornos ilusorios
tiene un margen que la separa de las zonas contiguas, aunque en la realidad física no exista un
cambio de luminancia que lo justifique.
4) actuación automática de todas las propiedades anteriormente señaladas.
5) carácter modal de la percepción de estos contornos, lo que significa que no son
supuestos perceptualmente, como en la percepción amodal, sino que se ven.
Los contornos subjetivos ocurren siempre en relación con situaciones de
complementación amodal, aunque ambos son fenómenos distintos.
Las dos hipótesis explicativas de los contornos subjetivos son:
- la hipótesis de la estratificación, basada también en la percepción de la profundidad,
se refiere a que aparece como más cercana al observador una parte del fondo no separada por
contornos reales.
- la hipótesis del contraste de claridad, opuesta a la anterior, se basa en que la figura
limitada por contornos subjetivos se percibe más brillante que el fondo del que forma parte.
La dificultad estriba en discernir si el mayor brillo es la causa o el efecto de estos contornos.
Los estudios realizados al respecto llevan más bien a la convicción de que los contrastes de
brillo serían una consecuencia.
En general, el fenómeno de los contornos ilusorios parece deberse a los mecanismos de
percepción de la profundidad, mostrándose una tendencia o necesidad de complementación
amodal que provocaría la estratificación en diversos planos.

5. LA TRANSPARENCIA PARADÓJICA (TRANSPARENCIA PERCIBIDA).


El fenómeno de la transparencia paradójica (o percibida) consiste en percibir como
transparente y delante una de las dos superficies opacas que se solapan.
Se relaciona también con la complementación amodal y la aparición de contornos
subjetivos.
Su aparición requiere que, entre los diversos segmentos de la escena se den
circunstancias especiales del color y de la forma espacial. Para ello son necesarios dos
requisitos:
- que los bordes de las dos figuras sean continuos y que su intersección forme bordes
con forma de “X”.
- que se dé una determinada relación cromática.

6. EL EFECTO PETTER.
El fenómeno del efecto Petter consiste en que, dada una configuración espacial de color
homogéneo cuya forma puede descomponerse en dos figuras que se solapan, se percibe
delante la figura mayor y menos articulada.
Pone de manifiesto la potencia de los automatismos en la organización perceptual, los
cuales nos obligan, en ocasiones, a percibir en contra de la experiencia.
Su origen parece estar en la interpolación visual, en concreto en la complementación de
las figuras, debido a que la figura mayor y con menor articulación requiere menos
complementación modal de bordes.

7. LA DIVISIÓN FIGURAL.
El fenómeno de la división figural acontece cuando, observando las dos figuras en que
puede descomponerse una configuración con igualdad cromática, no puede encontrarse que
una sea mayor o más articulada que la otra.
Será considerado aquí como un caso particular del efecto Petter, aunque los psicólogos
suelen frecuentemente hacerlo al revés, esto es, incluir el efecto Petter dentro de la división
figural.
Coincide con el efecto Petter en que no hay diferencias de luminancia correspondientes
a bordes que separen de modo modal las figuras entre sí.
Su característica más relevante es la reversibilidad de la estructuración de una figura
delante de otra, de modo que la figura que antes se percibía detrás se percibe luego delante.
TEMA 35: LAS TEORÍAS SOBRE LA PREGNANCIA.

1. EL ESTUDIO DE LA PREGNANCIA SEGÚN LA TEORÍA DE LA


GESTALT.
Fueron los psicólogos de la Gestalt los que describieron el concepto de pregnancia y
para ellos constituye un principio muy importante de organización perceptual., aunque su
definición fue controvertida. Así:
- Werheimer emplea este término para referirse a regiones de estabilidad de la figura y
habla de grados de pregnancia como de “ciertas disposiciones que son más fuertes que otras”;
- Koffka la define como la organización de estímulos perceptuales que tiene una figura
más simple, mejor y más estable;
- Koehler defiende que la pregnancia ha de ser definida en términos fisiológicos,
señalando que son los campos dinámicos de fuerzas los que serán la última explicación de la
pregnancia y no el concepto de buena figura.
Aunque la existencia de campos de fuerzas en el cerebro es algo que no se ha hallado,
los fenómenos descritos por la Gestalt sí funcionan en la psicológico, y autores posteriores a
la Gestalt intentaron una fundamentación teórica explicativa de ellos y, por tanto, de la
pregnancia.

2. EL ESTUDIO DE LA PREGNANCIA SEGÚN LA TEORÍA DE LA


INFORMACIÓN.
El primer intento de fundamentación teórica de la pregnancia tiene lugar en el marco de
la Teoría de la Información. Se pretende cuantificar el estímulo perceptual para poder mostrar
su conexión con los fenómenos descritos por la Gestalt y dar apoyo experimental a las leyes
descritas por ellos de modo cualitativo. Esto da lugar a la aparición de dos cuestiones que
intentan determinar:
- la cantidad de información transmitida por el estímulo;
- cuáles son los elementos del estímulo perceptual que contienen esa información.

2.1. CANTIDAD DE INFORMACIÓN TRANSMITIDA POR EL ESTÍMULO.


Para determinar la cantidad de información transmitida por el estímulo se acude a la
formulación matemática en la cual la información existente en un acontecimiento se relaciona
con el número de posibilidades que podían haber ocurrido.
Así, un acontecimiento es informativo si resuelve la incertidumbre entre dos
alternativas igualmente probables; es decir, si contiene al menos una unidad de información:
un bit.
De este modo, para resolver la incertidumbre entre cuatro alternativas igualmente
probables, hacen falta dos bits de información; para ocho alternativas, tres bits; y así
sucesivamente. Cuando las alternativas no tienen la misma probabilidad, el proceso es
diferente y algo más complicado.
En el campo de la percepción, se considera entonces que la información contenida en el
estímulo se relaciona también con el número de posibilidades de percepción de dicho
estímulo.
También se considera que el canal humano, al transmitir la información que contiene el
estímulo, añade:
- la equivocación, que es aquella información proporcionada por el estímulo pero que no
es procesada por el organismo.
- el ruido, que es la información que el organismo añade y no viene al caso.
Así pues, la cantidad total de información transmitida por el canal es igual a la
proporcionada por el estímulo y procesada por el organismo menos la equivocación y menos
el ruido.

2.2. ELEMENTOS DEL ESTÍMULO QUE CONTIENEN LA INFORMACIÓN.


En lo que respecta a cuáles son los elementos del estimulo en donde reside la
información, se postula que son los elementos poco probables, heterogéneos, irregulares e
impredecibles los que contienen la información. Así:
- algo probable y homogéneo es poco informativo.
- las figuras con líneas regulares, pocos ángulos y las simétricas, contienen poca
información.
La ley de la pregnancia o buena figura se interpretó como ley que permite percibir la
figura más simple, entendiendo ésta como:
- la más redundante (repetitiva),
- la que necesita menor información (número de bits) para ser percibida de modo
estable, seguro y económico.
Attneave intentó mostrar que la base de las leyes de la Gestalt se encontraba en la
cantidad de información dado que, según él, dichas leyes lo que hacen es determinar cómo se
percibe del modo más redundante si se considera que el sistema perceptual humano es un
canal de capacidad limitada. Hay que señalar que:
- la redundancia es un concepto de la Teoría de la Información que permite, con poca
cantidad de información, percibir con seguridad y economía, ya que se refiere a información
repetitiva.
- la relación entre redundancia y cantidad de información es inversamente proporcional.
- diversos autores buscaron demostrar que, psicológicamente, preferimos las figuras
más redundantes porque no proporcionan seguridad y economía a la hora de procesar la
información perceptual.
Aunque lo realizado en este ámbito es importante, pues constituye la base de los
actuales estudios perceptuales dentro del marco del procesamiento de la información, presenta
dos serios inconvenientes:
- no tiene en cuenta el contexto perceptual en el que se dan otros factores para
determinar la percepción.
- presenta la dificultad de que no siempre es posible determinar de modo claro la
probabilidad de las alternativas.
Hoy día, la Teoría de la información estructural y los estudios de Garner intentan
superar estas deficiencias.

3. EL ESTUDIO DE LA PREGNANCIA EN LA TEORÍA DE LA


INFORMACIÓN ESTRUCTURAL.
La Teoría de la información estructural o Teoría de la codificación fue formulada por
Leewenberg con la pretensión de determinar la cantidad de información disponible en el
estímulo.
Esta teoría busca cuantificar estructuralmente la cantidad de información necesaria para
describir un patrón estimular y, al basarse en la estructura de dicho patrón, presenta la ventaja
de proporcionar información constante.
Como procedimiento propone:
- dividir el patrón estimular en sus elementos estructurales (segmentos y ángulos);
- emplear un código primitivo (formado por consonantes y vocales) para representar las
relaciones secuenciales entre los elementos;
- a través de las reglas de composición, eliminar la información redundante existente en
el conjunto de elementos estructurales primitivos.
Con ello se pretende la posible reconstrucción de todas las características del patrón
estimular.
Beck ha resumido en tres puntos los pasos a seguir en esta Teoría:
1º.- elementos primitivos, consiste en especificar el código del patrón estimular
registrando los ángulos y las longitudes consecutivas que describen su contorno.
2º.- reglas de composición o simplificación, describen las relaciones y
transformaciones entre los elementos primitivos de forma que permita reducir el código
primitivo y simplificar la información estructural.
3º.- principio de la información mínima, alude a que la mejor organización psicológica
de un estímulo es la que tiene el código primitivo más simple de todos los posibles.
Desde esta teoría , la pregnancia:
- se define según el principio de simplicidad o principio mínimo;
- “la figura más pregnante es la que tiene el código estructural más simple para
percibirse de modo seguro”;
- los códigos más simples, más repetitivos, o más simétricos son los que arrojan un
menor peso de información estructural y, en consecuencia, una mayor pregnancia.

4. EL ESTUDIO DE LA PREGNANCIA EN LA TEORÍA DEL


PROCESAMIENTO DE LA INFORMACIÓN DE GARNER.
Al igual que los estudios presentados anteriormente, Garner pretende explicar la
pregnancia. Para ello parte de la teoría del procesamiento de la información, defendiendo que:
- la percepción es un procesamiento de la información que suministra el estímulo y que
ocurre en la mente;
- el procesamiento que hace la mente cuando percibe depende de las propiedades del
estímulo que es percibido, dedicándose por ello a estudiar dichas propiedades.
Encuentra que las propiedades básicas del estímulo, no del sujeto perceptor, son:
a) propiedades componentes o atributos, son elementos definitorios del estímulo y
pueden ser de dos clases:
* dimensiones, son propiedades componentes que existen a un nivel o valor
determinado, siendo todos los niveles excluyentes entre sí. Se caracterizan por:
- no ser atributos disociables del estímulo porque si los quitamos desaparece el
estímulo;
- dar información necesaria para conocer el conjunto total de donde se ha generado el
estímulo pues dicho conjunto total resulta de combinar todas las dimensiones con todos los
niveles.
* características, son propiedades componentes que existen sólo a un nivel o valor
determinado pues están o no están, pero no pueden estar en diversos niveles. Se caracterizan
por:
- ser atributos disociables del estímulo porque si los quitamos sigue existiendo un
estímulo;
- no dar información necesaria para conocer el conjunto total de donde se ha generado el
estímulo, por lo que un procesamiento por características es menos eficaz que un
procesamiento por dimensiones.
En consecuencia, los sujetos que perciban basándose en las propiedades dimensionales
del estímulo perceptual serán mejores perceptores que los que se basen en las características.
b) propiedades no componentes, son propiedades totalizadoras, no elementos
definitorios del estímulo, pueden ser:
* “todos simples” y “plantillas”, en los que se atiende a la totalidad de cada una de las
partes del estímulo, pues estas propiedades resultan de la suma de dichas partes;
* configuracionales, son propiedades que surgen del estímulo y que hacen que
percibamos dicho estímulo como un todo diferente de la suma de sus partes:
- se basan en un conjunto de relaciones como simetría, proximidad, reflexión, etc., que
emergen del todo del conjunto estimular.
Según Garner, puesto que el estímulo no puede ser considerado aisladamente sino en
referencia a un “todo”, estas propiedades no aparecen en un solo estímulo, sino en un
conjunto estimular, en una estructura, que es un sistema complejo considerado desde el punto
de vista del “todo”, no de las partes.
Dado que defiende que la pregnancia es la estructura más simple, Garner se dedica a
estudiar las estructuras que hay, encontrando tres tipos:
* estructura dimensional, responde a propiedades componentes dimensionales, pues
resulta de la combinación de todas las dimensiones con todos los niveles:
- el conjunto total y la estructura dimensional se definen recíprocamente.
* estructura basada en semejanza, resulta de las máximas semejanzas que se perciben
entre los elementos del conjunto estimular.
* estructura correlacional, se basa en la redundancia de los elementos estimulares. La
redundancia significa repetición de la información y, para Garner, fundamenta la buena figura
ya que un estímulo se percibe mejor cuanto más redundancia contiene. Esta estructura:
- respondería a un subconjunto del conjunto estimular total. En dicho subconjunto,
aunque están presentes todas las dimensiones, cada nivel de esas dimensiones sólo aparece en
la mitad del número de estímulos pues la otra mitad de estímulos son sus simétricos.
- cuanto menor es el número de elementos del subconjunto, la redundancia es mayor y
también la correlación.
Al respecto, es de señalar que Garner obtiene que las estructuras que más correlacionan
son las más simples.
Para Garner, percibir según una u otra estructura depende de que las propiedades del
estímulo, dada una dimensión, sean integrales o separables en relación con otra dimensión,
diciéndose, entonces, que esas dimensiones son integrales o separables:
* las dimensiones integrales se caracterizan fundamentalmente por:
- responder a una estructura basada en semejanza, en el parecido entre los estímulos;
- permitir atender fácilmente a las dos dimensiones a la vez;
- no posibilitar el hacer juicios independientes entre los elementos estimulares de ambas
dimensiones sin que ocurra interferencia.
* las dimensiones separables son aquellas en las que:
- se responde a la estructura dimensional;
- no se puede atender fácilmente a las dos dimensiones a la vez;
- es posible emitir juicios independientes respecto a los elementos estimulares de las dos
dimensiones sin que se produzca interferencia.
Para saber si las dimensiones son integrales o separables, Garner emplea una serie de
tareas experimentales de clasificación de estímulos. Así, en función de los resultados
obtenidos en dichas tareas se podrán hacer conjeturas sobre qué proceso ha realizado la
mente. Dichas tareas de clasificación de tarjetas son:
- de control o simple agrupamiento, consiste en clasificar sólo por una dimensión;
- correlacional, consiste en clasificar atendiendo a las dos dimensiones a la vez, las
cuales varían al mismo tiempo;
- ortogonal o de filtrado, considerando a todo el conjunto estimular, consiste en
clasificar atendiendo sólo a una dimensión e ignorando la otra que está presente.
Los resultados obtenidos empleando estas tareas han puesto de manifiesto que:
- la tarea correlacional es más fácil de realizar (se tarda menos y se cometen menos
errores) con dimensiones integrales;
- la tarea ortogonal o de filtrado es más fácil de realizar (se es más rápido clasificando y
se cometen menos errores) con dimensiones separables.
En base a todo esto, Garner afirma que:
- hay que considerar la buena figura y la redundancia en relación con el conjunto de
estímulos de la estructura dimensional de modo que la buena figura es la más redundante en
tanto que es ella misma en todas las transformaciones posibles.
- si en una estructura dimensional se puede prescindir de parte de los elementos
estimulares, porque se repiten, entonces esa estructura es correlacionada.
- cuantos más elementos correlacionan, la estructura es más simple y será, por ello, la
preferida por el sistema visual para procesar el estímulo.
- su estudio permite:
a) definir analíticamente el estímulo, salvando muchas de las dificultades de la Gestalt.
b) poner de manifiesto cómo el estímulo determina la percepción.
c) un modo público de observación puesto que se usan tareas experimentales.
En la actualidad, se ha puesto de manifiesto que en este estudio no resulta claro el que
las tareas empleadas definan realmente al proceso perceptual y sólo a él, lo que ha llevado a
iniciar estudios sobre la influencia jugada por la tarea y el sujeto en el procesamiento
perceptual.
TEMA 37: LA PERCEPCIÓN DE LA TERCERA DIMENSIÓN.

1. INTRODUCCIÓN.
Percibimos el mundo en tres dimensiones. De las posiciones teóricas que han intentado
explicarlo, sobresalen dos:
* la postura constructivista o tradicional.- defiende que la mente construye la
percepción de la tercera dimensión a partir de la imagen bidimensional en la retina, mediante
el aprendizaje de unas claves.
* la postura de la percepción directa.- niega tal construcción y defiende una percepción
directa, en virtud de los invariantes de la disposición óptica ambiental.

2. EL PROBLEMA DE LA PERCEPCIÓN DE LA TERCERA DIMENSIÓN.


La percepción de la profundidad o percepción tridimensional de los objetos y escenas
presenta una doble problemática:
1) la percepción de la disposición espacial de las superficies, lo que supone explicar:
- la percepción de la profundidad o distancia de las superficies desde el observador;
- la inclinación o pendiente y orientación de esas superficies en el ambiente.
2) la percepción de los objetos tridimensionales.
En el intento de resolución de esta problemática:
* los psicólogos constructivistas tradicionales han integrado ambas cuestiones en el
problema de la percepción de los objetos tridimensionales, considerando que es un proceso
“top down” o guiado por el conocimiento.
* el enfoque computacional de Marr distingue:
- la disposición espacial de las superficies o boceto 2 ½ D:
· es aún un proceso “bottom up” o guiado por los datos.
· es algo intermedio entre la representación bidimensional y la percepción en tres
dimensiones.
- la percepción del objeto tridimensional o percepción 3D.
* Gibson, sin embargo, se ha interesado fundamentalmente por el problema de la
percepción de la disposición espacial de las superficies, planteando su explicación como
determinación de la orientación o pendiente en una distancia.

3. LA EXPLICACIÓN DE LA PERCEPCIÓN DE LA TERCERA


DIMENSIÓN EN LA TEORÍA DE LA PERCEPCIÓN INDIRECTA
CONSTRUCTIVISTA.
En la explicación de la tercera dimensión, esta teoría:
- sostiene que sólo percibimos mediante una representación;
- parte de los estudios realizados por Berkeley, quien:
· asumió un enfoque empirista, en el que se consideraba que la percepción de la
profundidad no se daba directamente, sino que se aprendía.
· defendió que la tercera dimensión se construía asociando sensaciones táctiles y
cinestésicas a la sensación de la imagen en la retina.
· señaló dos claves fisiológicas o no visuales de percepción de la profundidad, a las
que añadió, más tarde, una clave de carácter óptico o de sensaciones visuales, referente al
grado de borrosidad con que una imagen aparece en relación con la distancia en que se
percibe el objeto.
Aunque las explicaciones de Berkeley fueron incompletas, constituyeron la base de los
trabajos posteriores sobre la percepción de la profundidad dentro de la psicología
experimental. Así, desde el punto de vista computacional y de la psicología cognitiva, se
sostiene que el procesamiento de la tercera dimensión, subyacente al boceto 2 ½ D, requiere
que la información procedente de diversas fuentes sea procesada por numerosos módulos
diferentes.

3.1. CLAVES PARA LA PERCEPCIÓN DE LA PROFUNDIDAD.


3.1.1.- Claves no visuales.
Berkeley señaló dos claves fisiológicas (oculares) o no visuales de la percepción de la
profundidad; estas claves actúan en distancias relativamente pequeñas, por lo que su poder
explicativo es muy limitado. Son:
* acomodación del cristalino.- consiste en la sensación cinestésica producida por la
contracción de los músculos ciliares, los cuales aumentan o disminuyen la convexidad del
cristalino del ojo.
* convergencia ocular.- se trata de la sensación cinestésica proporcionada por los
músculos oculares al realizar los movimientos de convergencia sobre los objetos; según esto:
- el ángulo de convergencia aumenta al percibir objetos cercanos y disminuye cuando se
perciben objetos lejanos.
- proporciona información absoluta de la distancia del observador al objeto, no relativa
de la distancia existente entre objetos.
3.1.2. Claves pictóricas.
Se emplean para dar la sensación de profundidad en superficies bidimensionales. Son:
* perspectiva.- alude, en general, a los cambios de líneas y color, que permiten obtener
la percepción de profundidad en una superficie bidimensional. La perspectiva puede ser:
- lineal, se refiere a la convergencia de las líneas paralelas en función de la distancia;
- de detalle, tiene que ver con que los objetos cercanos se perciben con mayor detalle;
- aérea, se relaciona con dos fenómenos diferentes:
· el cambio en la saturación de colores, se refiere a que la saturación del color de los
distintos objetos va disminuyendo, acercándose todos ellos al color gris, conforme los objetos
están más lejos;
· el matiz, alude a que los objetos, conforme están más lejos, van adquiriendo el matiz
de la iluminación del ambiente.
* interpolación o imbricación parcial.- se refiere a la información dada por la oclusión
parcial de un objeto por otro, según la cual percibimos como más lejanos los objetos tapados
parcialmente.
* tamaño relativo.- consiste en que los objetos más lejanos se tienden a percibir
mediante imágenes más pequeñas que los objetos cercanos.

* sombreado.- que puede ser:


- inherente, tiene que ver con las sombras que sobre el mismo objeto ocasionan los
cambios de dirección de sus superficies;
- proyectado, hace referencia al sombreado que un objeto produce sobre otro o sobre la
superficie en la que se encuentra;
- claroscuro, se relaciona con la distribución de la iluminación sobre las superficies de
un cuerpo.
* gradiente de densidad de textura.- según Gibson es una característica del estímulo
que informa directamente de la tercera dimensión. Así:
- las superficies y los objetos se perciben por los cambios de textura; es decir, por la
relación de los puntos luminosos entre sí en una superficie.
- actuaría como una regla o indicador de medida de la distancia:
· a medida que aumenta la distancia , la densidad de textura aumenta;
· conforme la distancia disminuye, la densidad de textura también disminuye.
3.1.3. Claves binoculares.
Vienen determinadas por la visión binocular. Las principales son:
* visión detrás de los objetos cercanos.- consiste en que, al converger lo ojos sobre un
objeto cercano, las líneas laterales de visión pasan al lado del objeto, permitiendo ver el
espacio que hay detrás de él.
* disparidad retiniana cruzada.- se refiere a la disparidad retiniana que se produce
cuando percibimos un objeto más cercano que el punto en que fijamos nuestra mirada.
* profundidad estereoscópica (o estereopsis).- es un fenómeno resultante de la
disparidad binocular que consiste en una pequeña disparidad horizontal de las imágenes
retinianas de cada uno de los ojos, que producen la sensación de profundidad.
- se debe a que las imágenes del mismo punto del ambiente no se corresponden con las
mismas posiciones retinianas en cada uno de los dos ojos, estando desplazadas lateralmente
en función de la distancia relativa de dicho punto;
- puede demostrarse mediante separación y posterior presentación separada, a cada uno
de los ojos, de las imágenes que cada uno de ellos vería;
- plantea el problema de determinar qué características de la imagen retiniana del ojo
derecho corresponden a la imagen retiniana del ojo izquierdo;
- los psicólogos, con independencia del punto de vista computacional, han señalado dos
teorías para resolver este problema de la correspondencia:
· la teoría de la figura-primero, en donde se defiende que la aparición de la
estereopsis es posterior al análisis de la forma.
· la teoría de la estereopsis-primero, más confirmada experimentalmente, sostiene que
la estereopsis precede al análisis de la forma.
- la estereopsis no lo explica todo pues, al igual que la convergencia binocular y la
acomodación del cristalino, sólo actúa en distancias pequeñas.

3.1.4. Claves dinámicas.


Las claves dinámicas aluden a la información que proporcionan los movimientos del
observador y de los objetos observados para la percepción de la tercera dimensión ya que,
cuando éstos se producen, las imágenes de los objetos más cercanos se desplazan más
rápidamente en la retina, recorriendo mayor espacio.
- la tasa de desplazamiento depende de la distancia en que se encuentren los objetos y
del punto en donde fijemos nuestra mirada.
El paralaje del movimiento, que se refiere a la diferente posición que parece tener un
objeto cuando se observa desde dos puntos distintos, es la clave por medio de la cual estos
movimientos proporcionan información de la distancia relativa entre los objetos y el
observador.
- se habla de distancia relativa porque no es información absoluta de la distancia en que
se encuentran los objetos del observador, sino sólo de que unos objetos están más cerca que
otros de él.
El estudio de estas claves dinámicas se ha desarrollado, sobre todo, dentro de la teoría
de la percepción directa.

4. EL PUNTO DE VISTA COMPUTACIONAL Y EL ESBOZO 2 ½ D.


Dentro del punto de vista computacional, Marr y Nishihara señalaron en el
procesamiento perceptual total un segundo nivel basado en las superficies, no en la imagen, al
que llamaron esbozo o boceto 2 ½ D:
- supone la explicación más aceptada de la percepción de la tercera dimensión dentro de
la psicología cognitiva;
- indica cómo puede construirse una representación de la tercera dimensión a partir de
las imágenes reales.
Según Marr:
1º en el procesamiento temprano se describe la estructura de la superficie del ambiente.
2º en el boceto primario completo se describe la forma a través del orden y orientación
de las superficies, pero no se establece la distancia ni la relación de las distintas formas.
3º al añadir la estereopsis y el movimiento al esbozo primario se consigue el esbozo 2 ½
D.
4º posteriormente, en el esbozo 3D se estructura el objeto tridimensional.
* El esbozo o boceto 2 ½ D:
- es una descripción de las superficies del entorno del observador en base a su
orientación y orden local.
- se sitúa entre el boceto primario y el esbozo 3D.
- se comporta como un almacén de memoria que integra las fijaciones visuales
sucesivas, por lo que actúa guiado por los datos, no siendo estructurado por ninguna
experiencia o conocimiento anterior.
- su existencia indica que:
a) el procesamiento de la tercera dimensión es diferente según se base en el
observador o en el objeto mismo:
· la representación resultante del procesamiento basado en el perceptor de la tercera
dimensión es el esbozo o boceto 2 ½ D.
· la representación que resulta del procesamiento de la tercera dimensión basada en el
objeto mismo es la representación 3D.
b) el procesamiento de la profundidad es un proceso separado de los otros procesos, lo
cual es coherente con los últimos descubrimientos de la neurología y la fisiología.

5. EXPLICACIÓN DE LA PERCEPCIÓN DE LA TERCERA DIMENSIÓN


EN LA TEORÍA DE LA PERCEPCIÓN DIRECTA.
La explicación de la percepción tridimensional en la teoría de la percepción directa se
opone a la teoría constructivista que reduce la percepción tridimensional a un plano
bidimensional al considerar que el espacio geométricamente no responde a la realidad
ecológica.
La percepción ecológica es la percepción real que permite la adaptación de cada
organismo a su ambiente, pues el estímulo no es una fotografía de la realidad, sino algo que
especifica la realidad ecológica para que el animal pueda realizar su conducta.
Hay que considerar el patrón de estimulación total que constituye la disposición óptica
ambiental.
El estímulo no es la imagen en la retina, sino los invariantes de esa disposición óptica
que captamos directamente.
Distingue entre:
* óptica geométrica.- que se refiere a un campo visual y en la que se estudian las
imágenes en la retina.
* óptica ecológica.- que se refiere al mundo visual, a un espacio tridimensional, y en
donde se estudian los invariantes de la disposición óptica ambiental.
Según esto, el observador percibe la profundidad y la distancia directamente, mediante
los gradientes de densidad de textura de las superficies.
La teoría de Gibson ha tenido especial importancia para el estudio de la profundidad
mediante las claves dinámicas, que informan de los cambios que, debido al movimiento, se
producen en la estructura visual a lo largo del tiempo. A dichos cambios es a lo que Gibson
llamó flujo óptico.
En relación con el flujo óptico hay que distinguir entre:
- el flujo óptico debido al movimiento de los objetos observados:
· informa mediante la condensación, el desvanecimiento y el reparto de los elementos
de la textura;
· un objeto cubrirá o descubrirá la textura óptica del medio en el que se mueve en el
sentido de su movimiento y, al hacerlo, irá separando los elementos de dicha textura por los
bordes paralelos a su movimiento;
· si el objeto se aleja del observador se producirá una concentración de los elementos
de la textura de dicho objeto, mientras que si se acerca, se producirá una separación de ellos.
- el flujo óptico debido al movimiento del observador, ofrece dos patrones diferentes de
información:
· gradiente del movimiento, por ser imágenes en movimiento debido a un cambio
gradual en velocidad y dirección;
· patrón de expansión óptica.
TEMA 38: LA PERCEPCIÓN A NIVEL DE OBJETOS. LA
IDENTIDAD DEL OBJETO.

1. INTRODUCCIÓN A LA PERCEPCIÓN A NIVEL DE OBJETOS.


Nuestro mundo es un mundo lleno de objetos y percibir estos objetos requiere tres
pasos:
1º distinguirlos entre sí como diferentes y separados (discretos) unos de otros, aunque
se relacionen localmente dentro de la escena perceptual en la que se encuentran.
2º identificarlos como ellos mismos en el tiempo y en el espacio.
3º caracterizarlos como constantes en su forma, tamaño y color aunque varíen las
circunstancias y condiciones en que son percibidos.

2. LA DISTINCIÓN DE LOS OBJETOS EN LA ESCENA PERCEPTUAL.


La distinción de los objetos en la escena perceptual se refiere a que para poder percibir
los objetos es necesario que éstos se aíslen, se separen, del resto de la escena perceptual.
No se explica simplemente por la correspondencia entre cosas reales y objetos
percibidos, sino que se explica mediante la organización perceptual.

3. LA IDENTIDAD DE LOS OBJETOS PERCIBIDOS.


La identidad perceptual del objeto es la percepción de un mismo objeto en el tiempo y
en el espacio. También responde simplemente a la identidad de las cosas físicas reales, pues
esta identidad no explica de modo pleno la identidad del objeto percibido.
Ha intentado ser explicada por:
* Kanizsa, que en base a experimentos de movimiento aparente defiende que, dejando a
un lado la existencia de realidades físicas que se corresponden con la percepción de esos
objetos, la identidad de los objetos percibidos es “fenoménica”, es decir, algo propio de la
experiencia sensorial.
* los psicólogos de la Gestalt, que, estudiando también experimentos de movimiento
aparente, sostienen que la identidad de los objetos perceptuales se debe a la identidad de la
estructura del todo a la que pertenecen y no, simplemente, a la correspondencia con la
realidad física exterior.
* el punto de vista ecológico, desde el que se afirma que la percepción lo es de la
realidad ecológica y no de la realidad física en sí, por lo que en el funcionamiento del sistema
perceptual prevalecen los principios automáticos sobre la perfecta correspondencia entre la
realidad física exterior y su percepción.
En un sentido general, cabe afirmar que la identidad de los objetos percibidos se explica
por los mismos principios de organización perceptual que constituyen los objetos como cosas
separadas dentro de la escena perceptual.

4. LAS CONSTANCIAS DE LAS CARACTERÍSTICAS DE LOS OBJETOS.


Las constancias perceptuales de los objetos se refieren a que los objetos se perciben
siempre constantes en su forma, tamaño y color aunque cambien las circunstancias en que son
percibidos y, por tanto, no sea siempre igual la imagen retiniana que se tiene de ellos.
No responden directamente a las constancias físicas reales sino que dependen de las
condiciones de estimulación proximal, las cuales se consideran producidas en la retina por los
psicólogos cognitivos y los de la Gestalt, y en el orden óptico ambiental por Gibson.

4.1. CONSTANCIA DEL TAMAÑO.


Se relaciona con la distancia percibida en el sentido de que percibimos los objetos con
el mismo tamaño, aunque estén a distinta distancia, de manera que el tamaño percibido de un
objeto no depende de modo absoluto del tamaño de su imagen retiniana.
Fue explicada:
- tradicionalmente en base a la relación entre el tamaño del objeto y la distancia a la que
se encontraba.
- por Gibson mediante el gradiente de densidad de textura, característica de orden
superior.
* Los parámetros implicados en el análisis de la percepción del tamaño son:
- tamaño del objeto real (T);
- distancia real desde el objeto al órgano visual (D);
- distancia entre la retina y el punto central del cristalino del ojo (K);
- tamaño de la imagen retiniana (t);
- tamaño percibido (T’);
- distancia percibida del objeto (d);
- ángulo visual (), que es la medida en grados del ángulo formado por las líneas que
unen los extremos del tamaño del objeto real con el punto focal del cristalino:
· cuando este ángulo es constante, la imagen en la retina también lo es;
· el tamaño de la imagen en la retina es directamente proporcional al tamaño del
ángulo visual;
· ambos tamaños son inversamente proporcionales a la distancia real desde el objeto al
perceptor y directamente proporcionales al tamaño del objeto real.
* En la constancia del tamaño y su relación con la distancia:
- experimentalmente se ha puesto de manifiesto que la percepción del espacio
desempeña un papel muy importante en la constancia del tamaño ya que cuando se pierden
por completo las claves de esta percepción, el tamaño de los objetos se percibe en correlación
con el tamaño de las imágenes retinianas.
- Gregory estudió la constancia del tamaño basándose en las ilusiones perceptuales;
creyó que la explicación de que imágenes retinianas iguales no dieran lugar a la percepción de
un mismo tamaño estaba en que el organismo debía de tener un sistema de ajuste de la
constancia.
- en relación a las postimágenes se ha comprobado que una postimagen se percibe con
el doble de tamaño en función de la distancia de su fondo, a pesar de tener igual imagen
retiniana.
- se denomina ley de Emmert a la inversión de la relación normal entre tamaño y
distancia.
· esta ley se refiere a que, siendo igual el ángulo visual o la imagen retiniana, el
tamaño percibido aumenta con la distancia en que se sitúa el objeto.
· así, el que una postimagen se perciba con el doble de tamaño, respondería a la
intervención del sistema de ajuste que procuraría cumplir la ley de Emmert.
· las principales críticas a esta ley se deben a que no distingue de modo claro entre los
tamaños y distancias reales y los percibidos.
- Gibson defiende que, al igual que la constancia del tamaño, la explicación de la
distancia percibida está en el gradiente de densidad de textura, no existiendo ninguna relación
funcional entre el tamaño percibido y la distancia percibida.

4.2. CONSTANCIA DE LA FORMA.


Se refiere a que percibimos un objeto con la misma forma aunque se vea desde distintos
puntos de observación, con lo que su imagen retiniana es diferente.
Su explicación es problemática pues:
- como puso de manifiesto el experimento de Thouless, la forma se tiende a percibir
como constante, no coincidiendo de modo total con la forma de la imagen retiniana,
ajustándose más a la forma y tamaño de los objetos reales que a la de sus imágenes en la
retina.
- un proceso “top down”, en el que intervenga la memoria o el razonamiento, tampoco
permite dar cuenta de este fenómeno de la constancia de la forma.
Puede que la consideración de la imagen retiniana de todo el patrón de estimulación
ambiental, en donde jugaría un papel relevante el gradiente de densidad de textura, permita
explicarla.
TEMA 39: LA PERCEPCIÓN DEL MOVIMIENTO.

1. INTRODUCCIÓN.
Es tan importante para el funcionamiento de los organismos la percepción del
movimiento (tanto el propio como el de lo que les rodea), que es más fácil percibir los objetos
en movimiento que estáticos.
La postura tradicional que justifica el movimiento por el desplazamiento de la imagen
del objeto en la retina, se encuentra con el problema de explicar el fenómeno del movimiento
aparente, o la distinción entre el movimiento del observador activo o pasivo.
Vamos, pues, a distinguir entre los movimientos del observador y el movimiento del
objeto.

2. MOVIMIENTOS DEL OBSERVADOR.


En la captación de información del observador activo se dan dos tipos de movimientos:
- su propia traslación física, que aporta un flujo de información cambiante, y
- el de sus ojos. Se ha comprobado experimentalmente que los ojos realizan algún
movimiento para cualquier tipo de percepción aunque ésta sea de un objeto estático. Así, por
ejemplo, los movimientos oculares sacádicos, tan necesarios para la lectura, facilitan la
percepción pero no informan específicamente del desplazamiento.
Los ojos realizan un barrido del mundo estático a través de los movimientos oculares
que producen fijaciones discretas en la retina y que se integran en una secuencia temporal.
Pero para la integración de esas fijaciones sucesivas se hace necesario algún
componente de memoria. Si bien todos los autores están de acuerdo en esto, no coinciden en
el tipo de almacén:
- una memoria icónica donde se retienen las imágenes aproximadamente medio
segundo. Este almacenamiento es periférico.
- una memoria a corto plazo donde permanecen algunos minutos. El almacenamiento
es central, esto es, en la corteza cerebral.
Para explicar el que percibamos distintivamente nuestro movimiento o el de un objeto
que se desplaza, aún causando ambas situaciones el mismo efecto sobre la retina, Gregory
defiende dos sistemas:
- sistema imagen-retina;
- sistema ojo-cabeza.
Ambos sistemas funcionan coordinados: los impulsos nerviosos que producen la
acomodación del cristalino por los músculos ciliares (imagen-retina), producen también la
acomodación de los dos ojos mediante los músculos orbitales (ojo-cabeza) y así se supera la
ambigüedad del primer sistema.
Las dos principales teorías explicativas de cómo se produce la coordinación entre los
dos sistemas:
* la teoría de la entrada de Sherrington.- defiende que el sistema es un circuito de
retroalimentación. Así, las señales aferentes de los músculos de los ojos se consideran una vez
interpretado el movimiento de la imagen retiniana.
* la teoría de la salida de Helmholtz.- mantiene que la señal de anulación se produce al
mismo tiempo que la señal para el músculo ocular y viene directamente del cerebro.
La experimentación apoya la teoría de la salida.
Actualmente se da otra interpretación diferente a las anteriormente señaladas,
postulándose que si lo que se mueve es todo el mosaico retinal, se interpreta como
movimiento del ojo, pero si sólo se mueve una parte, lo que se desplaza es el objeto.
Sin embargo, en el otro tipo de movimiento enunciado anteriormente, el provocado por
el observador desplazándose en el ambiente, se sufre una serie de transformaciones continuas
de la imagen en la retina debidas a su flujo óptico, el cual depende del punto donde se fije la
mirada.
El flujo óptico está constituido por la transformación continua de la estructuración de la
luz reflejada en el ambiente.

3. MOVIMIENTO DEL OBJETO.


Se produce en la percepción del movimiento de un sujeto pasivo. Esa percepción del
movimiento puede ser:
- real: hay desplazamiento en el espacio físico;
- aparente: percepción del movimiento que no viene determinada por la traslación de un
objeto real en el espacio físico.

3.1. EL MOVIMIENTO REAL.


El movimiento del objeto se percibe mediante la integración de imágenes discretas del
objeto sobre la retina. Esas imágenes, al moverse el objeto, producen proyecciones en
distintos lugares de la retina.
Se recurre a la memoria para justificar esa integración temporal. Pero en este caso, al ser
el objeto el que se desplaza, las imágenes son diferentes y no hay correspondencia entre ellas
por lo que no se pueden integrar directamente.
Se han dado distintas soluciones a este tema:
- para la escuela de la Gestalt, el objeto se percibe como un todo, e igualmente los
elementos de su estructura, por lo que aunque está en movimiento se mantiene su
configuración. A esto lo denominan identidad fenomenológica.
- para el procesamiento de la información, el sistema visual analiza cada estímulo y
luego los compara según determinadas reglas.
Dentro de este enfoque, Kolers defiende que no hay una percepción final de cada
imagen, sino un procesamiento modular; cada procesamiento transforma una representación
en otra, pero sólo se es consciente de la representación final.
- según el enfoque computacional, partiendo de una secuencia de imágenes discretas se
interpretan los cambios en la apariencia del objeto como su movimiento.
Así, Ullman postula que las correspondencias de imágenes sucesivas se hacen por
elementos y no entre las figuras totales. Esos elementos se encuentran en los esbozos
primarios y los denomina marcas de correspondencia que funcionan por una regla de afinidad
(proximidad y similitud de los elementos). La afinidad viene determinada por parámetros de
semejanza, temporales y del sistema visual.
Para la percepción de un objeto en movimiento, además de la integración de las
imágenes discretas, hay que darle una estructura tridimensional a partir de la imagen retiniana.
Las distintas explicaciones dadas recurren a la influencia de otros procesos:
- Ullman, por ejemplo, da una explicación perceptual: se puede recuperar la estructura
tridimensional de un objeto rígido en movimiento mediante tres imágenes sucesivas que
muestren, cada una, cuatro puntos en distintos planos.
- Se ha comprobado que el movimiento relativo de las partes de las superficies de los
objetos al moverse, nos informan de qué partes están más o menos cercanas.

3.2. MOVIMIENTO APARENTE.


En el movimiento aparente no hay traslación física del objeto.
La postura tradicional defendía que se infiere el movimiento al percibir el objeto en
distintos lugares. Percibimos figuras estáticas que se integran temporalmente.
Exner mantuvo lo contrario al demostrar que el movimiento se percibe antes que el
objeto mismo.
El movimiento aparente se clasifica en:
- movimiento estroboscópico: presentación sucesiva de dos estímulos estáticos.
Wertheimer los estudió en profundidad, dando lugar a la Escuela de la Gestalt.
El estudio de estos movimientos aparentes llevó a Wertheimer a defender que la
percepción del objeto y del movimiento se distinguen, por lo que se puede explicar éste por la
integración secuencial de imágenes estáticas.
Dentro del movimiento estroboscópico se distinguen:
· movimiento Beta o movimiento óptimo: cuando la presentación sucesiva de dos
estímulos iguales producía la sensación de moverse de un lugar a otro. Se produce con un
intervalo de tiempo de 60 mlsegs.
· movimiento Phi o movimiento puro: no hay percepción de desplazamiento del objeto,
sino sólo de movimiento. Se produce cuando el intervalo de presentación es algo superior a 60
mlsegs.
- efecto autocinético: un estímulo puntual estático se percibe en movimiento si no tiene
referencias en el fondo.
- movimiento inducido: se percibe en movimiento una figura inmóvil por el hecho de
moverse el fondo.
- movimiento de estructuras estáticas: producido por combinación de figuras blancas y
negras.

4. LA PERCEPCIÓN DEL MOVIMIENTO EN LA TEORÍA DE LA


PERCEPCIÓN DIRECTA.
Gibson, en su teoría de la percepción directa, describe cuáles son los estímulos del
movimiento y dónde contienen la información.
Defiende que la luz reflejada en el ambiente nos informa de la percepción visual, y en el
caso de la percepción del movimiento es el flujo de esa disposición óptica. Lo que denomina
flujo óptico:
- sus características determinan el movimiento del estímulo sin necesidad de recurrir a
ningún tipo de procesamiento.
- está formado por las transformaciones continuas de la estructuración de la luz reflejada
en el ambiente que provoca cambios continuos de la imagen retiniana.
- está determinado por el observador que se desplaza y su punto de fijación da una
estimulación constante sobre el mismo punto de la retina, mientras que los otros puntos del
ambiente producen una transformación constante de la estimulación en la retina.
El patrón del flujo óptico es específico para cada tipo de movimiento. Así, las relaciones
entre flujo óptico y movimiento son:
- el movimiento de acercamiento se especifica en el flujo óptico “saliente”.
- el movimiento de alejamiento se especifica en el flujo “entrante”.
- la dirección del movimiento viene señalada por el centro del flujo “saliente”.
- el cambio de dirección se especifica por un cambio en el centro del flujo “saliente”.
- el flujo óptico informa de movimiento y el no-flujo de no movimiento.
Todas esas características de orden superior se encuentran en el mismo patrón estimular,
lo que demuestra que la percepción es primaria, con lo que no se necesita recurrir a ningún
tipo de construcción ni procesamiento.
Gibson defiende que los invariantes en las transformaciones de la disposición óptica que
captan los organismos del ambiente le informan directamente de él, esto es, de lo que le es
ecológicamente interesante.
La aportación de Gibson a corrientes posteriores ha residido en el papel primordial
concedido al estímulo en su ambiente, sin embargo no terminó de explicar cómo el sistema
visual recoge esa información.
A partir de la concepción de la disposición del flujo óptico de la teoría de la percepción
directa, esto es, de la importancia del estímulo, surgen una serie de planteamientos que
intentan determinar cómo el sistema visual recoge la información de dicho flujo.
Así Johansson, aunque, como Gibson, estudia el movimiento a partir del flujo óptico,
utiliza ya como método el análisis matemático vectorial y en sus explicaciones recurre a la
imagen retiniana.
- establece más bien un modelo de Inteligencia Artificial para explicar cómo se pueden
tratar matemáticamente los invariantes de las transformaciones de las proyecciones del objeto
sobre la retina, según lo percibe el sistema visual (para Gibson los invariantes se captaban
directamente de la información del medio).
Según la concepción del enfoque computacional, el flujo óptico se puede considerar un
cambio en el tiempo de la imagen retiniana.
- se tiene, entonces, que averiguar el algoritmo que transforma la distribución de
intensidades de luminancia o de primitivos del esbozo primario bruto (que describen la
imagen), en una distribución de velocidades (que describen el movimiento).
- con estos algoritmos se pretende correlacionar valores de intensidad de la luminancia
con valores de velocidad del movimiento.
- pero además se puede considerar el incremento de la intensidad de la luminancia, no
aisladamente, sino junto a un gradiente de intensidad de luz que se extiende espacialmente.
Para ello se tiene que plantear un segundo cálculo: el algoritmo de gradiente.
- en el algoritmo de gradiente se señala la dirección del movimiento e incluso, si se
mide la pendiente del gradiente, nos indica la velocidad.
- como a partir del flujo óptico se pueden obtener diversos tipos de información, es
obvio que el sistema visual humano utilice los dos algoritmos.
Pero no sólo se ha estudiado el procesamiento temprano de la dirección y la velocidad
del movimiento, sino que se ha indagado en otras tres propiedades complejas o
transformaciones del flujo óptico:
- la expansión isotrópica.- transformación de la figura por un aumento de su área por
igual en toda su extensión.
- la rotación rígida.- cambio de ángulo de su eje vertical con respecto a la horizontal del
observador.
- el aplastamiento.- es la transformación de un patrón producida por la inclinación de la
figura.
Según esto, se pueden establecer cuatro elementos para describir el flujo óptico, que son
invariantes con respecto al movimiento de los ojos e informan del movimiento de traslación
del observador. Estos son:
- velocidad óptica;
- eje de inclinación;
- velocidad de expansión;
- rotación.
Otro concepto fundamental en la teoría de Gibson para la percepción del movimiento,
es el de textura: cuando un objeto se desplaza a través del campo visual provoca cambios de
los elementos de la textura. Así va cubriendo la textura óptica del medio por el que se mueve,
irá descubriendo la textura por detrás de su movimiento e igualmente irá dividiendo los
elementos de la textura por los bordes paralelos a su movimiento.
Por otra parte, se nos informa directamente del acercamiento o alejamiento de un objeto
a través de la condensación, desvanecimiento y el reparto de los elementos de su textura.
Así pues, la visión de la profundidad depende de las relaciones de detección entre los
elementos de la textura en el medio y las relaciones entre el medio y las acciones que hace el
observador:
- el aumento y disminución de los elementos de la textura conforme se mueve un objeto
hace que se perciba éste como más cercano al observador;
- el aumento y disminución de los elementos de la textura hace que lo que desaparece de
la visión, se perciba como oculto;
- el movimiento de traslación de un objeto provoca cambios parciales y locales de la
estructura del orden óptico, mientras que el movimiento del observador provoca un cambio
íntegro en el patrón del flujo óptico.
TEMA 40: LAS ILUSIONES PERCEPTUALES.

1. PRINCIPALES ILUSIONES VISUALES.


La ilusión perceptual es un efecto en el cual no hay correspondencia entre el estímulo
distal y el proximal. El estudio de las ilusiones perceptuales pone de relevancia los aspectos
psicológicos de la percepción.
Las principales son:
* Ilusión de Poggendorf.- produce un desplazamiento de la línea diagonal hacia uno de
los lados de un rectángulo vertical, superpuesto a dicha línea.
* Ilusión de Zollner.- desplazamiento de líneas diagonales paralelas producido por
líneas verticales que las cortan;
* Ilusión de Müller-Lyer.- un segmento limitado por brazos abiertos se percibe como
más largo que otro limitado por brazos cerrados;
* Ilusión horizontal-vertical.- distorsión del tamaño de un línea horizontal a la que
parece cortar una línea de igual longitud vertical, pareciendo esta última más larga;
* Ilusión de las formas en C de Jastrow.- dos formas en C del mismo tamaño,
colocadas una encima de la otra, aparecen como desiguales, percibiéndose la inferior como
mayor que la superior.
TEMA 41: PROCESAMIENTO A NIVEL DE CATEGORÍAS.

1. LA TEORÍA DE LAS OFERTAS ECOLÓGICAS.


Inicialmente, Gibson establece una psicofísica de orden superior en la que se percibían
objetos y no estímulos puntuales.
Posteriormente desarrolló su punto de vista ecológico: las cosas del ambiente
constituyen una oferta para el animal, lo que le es válido para su conducta.
Según su teoría de las ofertas, las cosas del ambiente en función de sus propiedades
ofrecen posibilidades de conducta al animal.
Para Gibson, el significado de la percepción se encuentra en que informa de la oferta de
un objeto del ambiente para la realización de una conducta.
El concepto de oferta proviene de la escuela de la Gestalt, que considera que el
significado del objeto se encuentra inherente a él y no es algo añadido.
Para la escuela de la Gestalt, el significado del objeto era una característica de nuestra
experiencia sensorial (algo fenomenológico); sin embargo, para Gibson, el significado del
objeto depende sólo del objeto físico, se trata de un invariante.
Según Gibson, el objeto significa, ofrece, y el observador puede recoger esas ofertas o
no.
Las ofertas son ecológicas en cuanto constituyen el hábitat del animal, ya que son
propiedades de las sustancias y superficies de las cosas del ambiente. Para que se perciban,
entonces, es necesario que el orden óptico informe de esas propiedades; la combinación de
todas las propiedades determinará la oferta.
Gibson extiende el término de oferta no sólo a lo estrictamente ecológico, sino también
a los eventos y relaciones sociales.
TEMA 42: EL ENFOQUE ECOLÓGICO EN LA PSICOLOGÍA DE
LA PERCEPCIÓN.

1. INTRODUCCIÓN.
J. J. Gibson fue el creador de la teoría de la percepción directa con la que quiso indicar
que la percepción está en función directa del estímulo, por lo que no se precisa recurrir a
construcciones de ningún tipo por parte del sujeto.
La teoría gibsoniana está muy influenciada y determinada, en parte, por tres enfoques:
- el conductismo recoge el planteamiento E-R y se centra en el estudio del estímulo.
Con ello hace depender la percepción de la estimulación exterior. Considera al estímulo
perceptual como estímulo información.
- la psicología de la Gestalt recoge la consideración, por un lado, del carácter primario
de la percepción respecto a la sensación y, por el otro, la importancia de la estructura
estimular. Según esto, la percepción depende exclusivamente de la estructura óptica. Crea la
teoría de la percepción directa, en donde lo único construido evolutivamente es el nicho
ecológico y el sistema perceptual.
- la concepción ecológica del funcionalismo probabilístico de Brunswick, según el cual
la percepción está en función del estímulo según una probabilidad; de esta forma, el sujeto
asocia las distintas sensaciones a una percepción determinada, según un cálculo de
probabilidades. Consideró la validez ecológica como un medida de la consistencia del
ambiente definiéndola como el grado con que unas variables aparecen aparejadas a otras. En
este sentido, para Gibson lo que se percibe son los estímulos información, que informan de
los invariantes del medio, por lo que presentan máxima validez ecológica.
Los tres puntos principales de su teoría son:
* Los estímulos información.- son los que informan de los invariantes del medio.
- se oponen a los estímulos energía y a las claves espaciales de profundidad que
implicaban un receptor pasivo de energías elementales del ambiente y, por tanto, algún
proceso de construcción;
- tampoco son las imágenes en la retina que cambian constantemente y, por tanto, no
pueden mostrar un mundo estable;
- un estímulo información posee tres propiedades:
· un cierto grado de orden adyacente, con una estructura simultánea y orden en el
espacio (hay bordes y ángulos);
· un orden sucesivo, con una estructura en el tiempo;
· algún componente de no-cambio y algún componente de cambio, en este sentido el
cambio es parte del estímulo, ya que sería un error concebir cada forma persistente como un
estímulo separado.
- frente a la teoría tradicional, que sostenía que los estímulos que afectan a los sentidos
son una serie de energías y que los sujetos se consideran receptores pasivos, Gibson considera
al sujeto perceptual como:
· activo, consistiendo su actividad perceptual en la recogida de información del medio
ambiente en el que tiene que desarrollar su conducta;
· no como un receptor estático, sino que se mueve en el ambiente y la información que
busca y recoge es un flujo cambiante;
· perceptor de la información del ambiente por los diversos sentidos que le permite
realizar una conducta adecuada, por eso los sentidos constituyen sistemas perceptuales.
- los tres elementos físicos fundamentales del ambiente son:
· la orientación,
· la extensión, y
· la estructura luminosa.
- dentro del ambiente luminoso, la mayor cantidad de información se encuentra en el
hemisferio que forma la luz reflejada que posee una enorme textura, según la reflexión de la
luz en las diversas superficies.
- esa luz reflejada es la que forma el “orden o disposición óptica”. En el orden óptico se
dan dos tipos de indicios:
· el gradiente.- se trata de un cambio gradual en la textura de la luz a lo largo de una
dimensión o eje para un observador.
El gradiente de textura óptico es una característica de orden superior muy
importante para la recogida de información y explica los cambios en la densidad de textura
óptica.
· la deformación.- es una transformación observada de gradientes para un observador
activo.
- para explicar por qué percibimos los objetos como son realmente, no como aparecen,
Gibson establece la distinción entre mundo visual y campo visual:
· el campo visual es una representación bidimensional y proporciona poca
información. Lo define como “la conciencia de nuestras sensaciones cuando nuestros ojos
están fijos”.
· el mundo visual es tridimensional y proporciona información del ambiente total. Lo
define como “la conciencia de nuestro ambiente”. El mundo visual se organiza a partir de
campos visuales, consiguiendo un conjunto continuo de transformaciones de perspectiva que
especifican el objeto en el mundo real.
* La percepción directa.- la percepción está en función del estímulo, esto es, de la
estructura del ambiente.
- todas las demás determinaciones de la percepción, como experiencias pasadas,
motivaciones..., ocupan un lugar secundario.
- lo único construido es el nicho ecológico y el sistema perceptual; entre ambos se da
una correspondencia ecológica, fruto de la evolución.
* El punto de vista ecológico.- el ecologismo psicológico no admite que se conciba la
mente según el modelo de una máquina, sino como algo perteneciente al mundo biológico y a
su ambiente ecológico.
- la evolución de la mente y sus modos de operar se han regido por el mismo proceso
que la evolución del ambiente.

2. EL PUNTO DE VISTA ECOLÓGICO EN GIBSON.


Desde el enfoque ecológico no se admite la concepción de la mente como una máquina,
sino como algo perteneciente al mundo, considerándose al mundo biológico y a su ambiente
como algo perteneciente a la ecología.
Los animales y su nicho ecológico son consecuencia de un mismo proceso evolutivo.
Entonces, la resonancia del animal con las características informativas de su nicho ecológico
es lo que le hace competente informativamente para desarrollar su vida en el mundo.
Desde su posición ecológica, Gibson, en lugar de relacionar un estímulo con su
respuesta, considera al animal como detector de las disponibilidades que el medio le ofrece.
Las disponibilidades u ofertas es lo que el ambiente ofrece a la actividad del animal. A
través de ellas los objetos informan de su significado.
Rechaza el estudio de la imagen en el campo visual ya que no es el estímulo el que nos
informa de nuestro entorno, sino que es la disposición óptica de la luz reflejada en las
superficies del ambiente, para un punto concreto de observación.
La estructura de la luz posee unas características que nos informan del ambiente, tanto a
los animales como al hombre, en función de la realización de nuestra actividad. Con esta
información el animal se hace competente para la actividad en su nicho ecológico.
Percibir, para Gibson, es resonar con el ambiente que nos muestra nuestro nicho
ecológico.

3. IMPLICACIONES DE LAS CARACTERÍSTICAS DE ORDEN


SUPERIOR EN LA PERCEPCIÓN DE LA TERCERA DIMENSIÓN, LA
DISTANCIA, EL TAMAÑO Y EL MOVIMIENTO.
Todas las dimensiones perceptuales las capta el observador directamente de la
información que proporciona el patrón de luz reflejada.
La distancia y la profundidad nos vienen indicadas por el gradiente de densidad de
textura de las superficies. De tal forma que a mayor distancia del observador, mayor densidad
de textura, y a menor distancia, menor densidad de textura.
El tamaño viene dado por la relación de los objetos con el gradiente o cantidad de
densidad de textura.
- Gibson explica la constancia del tamaño apelando a que los objetos comparados
cubran la misma cantidad de textura sobre el gradiente. De tal forma que un objeto próximo,
aunque su imagen retiniana sea mayor que la de otro objeto más cercano, se percibe de igual
tamaño si ambos cubren la misma cantidad de densidad de textura.
- Define la constancia del tamaño como una relación entre objeto y densidad de textura
y no entre imagen retiniana y distancia.
El movimiento lo explica por el patrón del flujo óptico que es específico para cada tipo
de movimiento:
- el movimiento del observador viene informado por un cambio en el patrón íntegro del
flujo óptico. Si el observador se acerca, la expansión de los elementos de la textura óptica es
saliente; cuando el observador se aleja, la expansión es entrante.
- el movimiento de un objeto en un campo visual es informado sólo por cambios
parciales y locales en la estructura del orden óptico a través de la condensación,
desvanecimiento y reparto de los elementos de la textura. Así, el objeto va:
· cubriendo la textura óptica del medio por el que se desplaza en la dirección de su
movimiento;
· descubriendo la textura por detrás de su movimiento,
· dividiendo los elementos de la textura por los bordes paralelos a su movimiento.

También podría gustarte