Está en la página 1de 82

Alba García

2º Psicología
1er Trimestre
1
1. INTRODUCCIÓN A LA PSICOLOGÍA DEL APRENDIZAJE
2. ANTECEDENTES HISTÓRICOS
3. DESARROLLO HISTÓRICO DEL ESTUDIO DE LA MENTE
4. DESARROLLO HISTÓRICO DEL ESTUDIO DE LOS REFLEJOS
5. INTERÉS Y ESTUDIO DE LOS PRINCIPIOS BÁSICOS DEL APRENDIZAJE
6. DEFINICIÓN DE APRENDIZAJE
7. ASPECTOS METODOLÓGICOS DEL ESTUDIO DEL APRENDIZAJE

1. INTRODUCCIÓN A LA PSICOLOGÍA DEL APRENDIZAJE

La psicología del aprendizaje es una disciplina muy necesaria por:

• Interés por entender la conducta (propia y de los demás)


• Conductas propias y ajenas impactan sobre nuestra calidad de vida
• Las conductas son el resultado de múltiples aprendizajes:

- Existen aprendizajes de conducta (adquisición)(La


conducta más compleja del ser humano es el
lenguaje , poder expresar con palabras o
símbolos una idea)
- Existen aprendizajes de disminución o pérdida de
una conducta (¿olvido? Un aprendizaje nunca se
puede olvidar lo que puede ocurrir es que se
aprendan otros aprendizajes incompatibles con el
anterior y por eso se crea olvidado
- Ambos tipos de aprendizajes son igual de
importantes.

• Los aprendizajes son esenciales para la adaptación


• Bargh y Chartrand (1999): “la mayor parte de la vida cotidiana de una
persona está determinada, no por sus intenciones conscientes y
decisiones deliberadas, sino por procesos mentales que se ponen en
marcha ante rasgos del ambiente y que operan fuera de la supervisión
de la conciencia”.

2
2. ANTECEDENTES HISTÓRICOS

René Descartes (1596 – 1650)

• “Abuelo” (filosófico y teórico) de la teoría del aprendizaje


• Antes de Descartes: comportamiento humano = intención consciente y libre
albedrío.
• Descartes reconoce RR automáticas a EE externos
• Desarrollo de visión dualista: dualismo cartesiano.
- Conducta humana = conducta voluntaria + conducta
involuntaria.
- Conducta involuntaria: RR automáticas mediadas por un
mecanismo (reflejos).
- Conducta voluntaria: Sin EE externos; solo voluntad consciente

• Surgen dos tradiciones intelectuales: bases del estudio del aprendizaje


moderno.
- Mentalismo: contenidos y funcionamiento de la mente.
- Reflexología: mecanismos de la conducta involuntaria.

3. DESARROLLO HISTÓRICO DEL ESTUDIO DE LA MENTE

Descartes
• Contenido de la mente: Experiencias sensoriales + ideas innatas*
- *Concepto de Dios, el concepto de sí mismo y ciertos axiomas
básicos de geometría.
- Ideas innatas → innatismo.
- Funcionamiento de la mente caótico; sin reglas claras. Cada
mente es unica y cada mente tiene un funcionamiento caotico
por eso no nos podemos centrar en estudiarla

Postura nativista
• John Locke (1632-1704)
- Todas las ideas son aprendidas (directa o indirectamente) a
través de experiencias posteriores al nacimiento.
- Mente como tabula rasa.
- Aprendizaje → empirismo.( el aprendizaje es atraves del
empirismo a traves de las experiencias)
• Thomas Hobbes (1588 – 1679): Funcionamiento de la mente predecible
y sujeto a leyes generales.
- Principio del hedonismo ( no se aprenden coas que no se
quieren aprender)

3
Empiristas británicos
• Concepto de asociación
- Sensaciones simples combinadas dan lugar a ideas complejas
• Leyes de asociación primarias (Aristóteles)
- Leyes de Contigüidad: Si dos eventos ocurren juntos en el
espacio o en el tiempo de forma repetida quedarán asociados
(✓)( si cada vez que suena un sonido a ti te dan un calambre
llega un momento que solamente solo con el sonido emitiras la
misma conducta que si recibieras el calambrazo)
- Leyes de Similitud: dos ideas quedaran asociadas si son similares
en algún aspecto (✓)
- Leyes de Contraste: dos ideas quedaran asociadas si tienen
alguna característica contraria (✗) es la única ley no verdadera
• Leyes de asociación secundaria (Brown (1778-1820))
- Intensidad de las sensaciones, frecuencia y recencia( recencia: el
espacio entre una y otra ej:el espacio que hay entre la luz y el
calambre) con que las dos sensaciones ocurren conjuntamente.

Inicios de la investigación empírica


• Hermann Ebbinghaus (1850-1909): Sílabas sin sentido.
- Asociaciones mejora con entrenamiento.
- Asociaciones mejor entre sílabas próximas.
- Mayor fuerza de asociación con la siguiente sílaba que con la
anterior.

4. DESARROLLO HISTÓRICO DEL ESTUDIO DE LOS REFLEJOS

Siglo XIX
• Fisiología rusa: I. M. Sechenov (1829-1905) e Ivan Pavlov (1849-1936)
• Sechenov
- Los EE no siempre elicitan RR reflejas de forma directa.
- Un EE puede liberar una RR previamente inhibida.
- La fuerza de la RR no depende solo de la intensidad del EE.
- Formas de pensamiento = RR reflejas elicitadas por EE débiles.
• Pavlov
- Principios del condicionamiento clásico.
- Demostración empírica de que no todos los reflejos son innatos.
- Mecanismos asociativos pueden establecer nuevos reflejos para
los estímulos.
- https://www.youtube.com/watch?v=Pb3opXRVE2k (Pág 7)
- https://www.youtube.com/watch?v=KG3N-zZF4dI (Pág 8)

4
5. INTERÉS Y ESTUDIO DE LOS PRINCIPIOS BÁSICOS DEL APRENDIZAJE

La investigación sobre los principios básicos del aprendizaje se impulsó desde 3


fuentes:
La cognición comparada y la evolución de la inteligencia, la neurología funcional y el
desarrollo de modelos animales de la conducta humana.

1. La cognición comparada y la evolución de la inteligencia

• Darwin (1809- 1882)


- Mente humana como producto de la evolución.
- ¿Capacidades humanas en animales?
- Estudio de la inteligencia en animales.
• George Romanes
- Definición de inteligencia como la capacidad de aprender ”a
hacer nuevos ajustes, o a modificar los antiguos, de acuerdo con
los resultados de su propia experiencia individual”

2. Neurología funcional

• Iván Pavlov
- Utilizar los estudios de aprendizaje animal para estudiar el
funcionamiento del SN.
- Principio de nervismo: las principales funciones fisiológicas están
gobernadas por el sistema nervioso.
- Estudios de condicionamiento → información sobre
funcionamiento del SN.
àInformación sobre plasticidad del SN, condiciones para el
aprendizaje, mantenimiento de las respuestas aprendidas, etc.
- Kendel: “el principio central de las modernas neurociencias es
que todo comportamiento es un reflejo del funcionamiento del
cerebro”

3. Modelos animales

• Uso justificado y razonable.


• Un modelo es válido si la característica sometida a estudio es
comparable.
• Permiten investigaciones en condiciones más sencillas, mejor
controladas y más económica

5
6. DEFINICIÓN DE APRENDIZAJE

• Aprendizaje: El aprendizaje es un cambio duradero en los mecanismos de


conducta que implica estímulos y/o respuestas específicas y que es el resultado
de la experiencia previa con esos estímulos y respuestas o con otros similares.

• Distinción entre aprendizaje y ejecución


• Aprendizaje = cambio en los mecanismos de la conducta ≠ cambio
directo en la conducta.
• Ejecución = oportunidad + motivación + capacidades sensoriales y
motoras + aprendizaje
• Uso de la conducta de un organismo como prueba de aprendizaje

• El aprendizaje y otras fuentes de cambio conductual


• Fatiga.
• Cambios en las condiciones estimulares
• Alteraciones en el estado fisiológico o motivacional del organismo
(hambre, sed, cambios en los niveles hormonales, drogas psicoactivas).
• Maduración

• Diferentes tipos de mecanismos causales


• Aristóteles: cuatro tipos de causas.
• Causa eficiente: condiciones necesarias y suficientes para
producir un resultado en la conducta.
• Causa material: cambios físicos en el sistema nervioso
provocados por la causa eficiente.
• Causas formales: mecanismos conductuales, teorías y modelos
de aprendizaje.
• Causa final: Explicaciones de la función del aprendizaje.

7. ASPECTOS METODOLÓGICOS DEL ESTUDIO DEL APRENDIZAJE

Dos aspectos metodológicos:

1. El aprendizaje como ciencia experimental


• Identificación de factores causales
• Causas no observables —— Necesidad de inferir causas a partir de los
resultados de las manipulaciones experimentales.
Ej: Encender la luz.
• El aprendizaje solo puede estudiarse mediante técnicas experimentales.
- Descarta otras causas (cambios motivacionales, desarrollo
sensorial, fluctuaciones hormonales, etc.).

6
2. Perspectiva de proceso general en el estudio del aprendizaje
• Los fenómenos estudiados son resultado de procesos más elementales
y es en ellos donde emerge la generalidad.
• Estos procesos elementales son las leyes universales de la asociación
• Edward Thorndike:
“Desde un punto de vista formal, el cangrejo, el pez, la tortuga, el perro,
el gato, el mono y un bebé son similares en cuanto a intelecto. Todos
ellos son sistemas de conexiones susceptibles de cambio por las leyes
del ejercicio y del efecto. Las diferencias se encuentran: primero, en las
conexiones concretas, en lo que estimula al animal a responder, en la
respuesta que realiza, en qué estímulo se conecta con qué respuesta, y
segundo, en el grado de capacidad para aprender”
• Thorndike asumió que las leyes del aprendizaje eran universales.
• Se debe poder descubrir los principios del aprendizaje estudiando
cualquier especie o sistema de respuesta que muestre aprendizaje.
• La adopción de la perspectiva de proceso general no prueba de forma
empírica que esta sea correcta, pero hay suficiente evidencia para
sostenerla.

7
1. CONDUCTA ELICITADA:
• REFLEJOS
• PAUTAS DE ACCIÓN MODAL
• ORGANIZACIÓN SECUENCIAL DE LA CONDUCTA
2. EFECTOS DE LA ESTIMULACIÓN REPETIDA
3. CONCEPTOS DE HABITUACIÓN Y SENSIBILIZACIÓN
4. DIFERENTES ENTRE HABITUACIÓN, ADAPTACIÓN SENSORIAL Y FATIGA
5. TEORÍA DEL PROCESO DUAL
6. CARACTERÍSTICAS DE LA HABITUACIÓN Y LA SENSIBILIZACIÓN
• CURSO TEMPORAL
• EFECTOS DE UN ESTÍMULO EXTERNO INTENSO
7. TEORÍA DEL PROCESO OPONENTE
8. VARIACIONES DE LA CONDUCTA DIRIGIDA A METAS

1. CONDUCTA ELICITADA

REFLEJO

Estímulo incondicionado (EI) —— Respuesta incondicionada (RI)

Arco reflejo: es el conjunto formado por la neurona aferente la interneurona y la


neurona eferente.
Arco reflejo: número mínimo de conexiones neuronales para producir un reflejo.
• Reflejos como conductas de supervivencia.
• Reflejos muy activos en recién nacidos:

8
PAUTAS ACCIÓN MODAL

• Pauta de acción modal o PAM: secuencia de respuestas típicas de especies


particulares.
- PAM en comportamiento sexual, defensa del territorio, agresión, captura de
presas…
EJ: respuesta de succión por objetos cercanos a la boca —— mamíferos.
EJ:respuesta de picoteo en la punta del pico para regurgitar la comida ——
Gaviota arenquera.
- Umbral para disparar un PAM dependiente de las circunstancias
EJ: reproducción del pez espinoso

• Estímulos elicitantes de las pautas de acción modal:


- Reciben el nombre de Estímulo desencadenante o Ed.
- Una PAM —— varios rasgos del estímulo.
- Estímulos supranormales: estímulos inusualmente efectivos para elicitar lA
PAM
EJ: conducta de recuperación de huevos de gaviota.Preferencia por los huevos
verdes, más moteados y de mayor tamaño.

ORGANIZACIÓN SECUENCIAL DE LA CONDUCTA

• Comportamiento = acciones individuales secuenciadas


• Conducta apetitiva —— primeros componentes de la secuencia de
comportamiento
- Sirven para poner al organismo en contacto con los Ed de la
conducta consumatoria
- Poco estereotipadas; cambiantes en función de la situación.
• Conducta consumatoria —— últimos componentes de la secuencia de
comportamiento.
- Concluyen una secuencia de respuestas.
- Suelen ser pautas de acción modal.
EJ: obtener comida:
1. Modo de búsqueda general
2. Modo de búsqueda focalizada
3. Modo de manipulación del alimento

9
2. EFECTOS DE LA ESTIMULACIÓN REPETIDA

Atención visual en los bebés humanos


• Participantes: Bebés de 4 meses.
• Conducta objetivo (VD): atención visual (tiempo de fijación de los bebés
en la imagen)
• Variable independiente (VI): (1) Tablero ajedrez 4x4; (2) Tablero ajedrez
12x12.
• Procedimiento: 8 presentaciones del estímulo durante 10 seg.

• ¿Qué está ocurriendo en el experimento con la


atención visual?
Atención visual provocada por un EE novedoso
cambia a medida que el bebé se familiariza con el
estímulo.
• ¿De qué dependen estos cambios?
La naturaleza del cambio está determinada por la
naturaleza del EE.

• Plasticidad de la conducta elicitada

Salivación y evaluación del sabor en humanos


• Respuesta elicitada: salivación // Estímulo desencadenante: sabor.
• Participantes: 8 mujeres.
• Variables independientes: (1) zumo de limón; (2) zumo de lima.
• Variables dependientes: salivación y evaluación hedónica.
• Procedimiento:
i. 10 primeros ensayos —— 0,03 ml de uno de los sabores
ii. Ensayo 11 —— cambio de sabor.

• ¿Qué está ocurriendo en el experimento


con las dos VD?
1. Incremento entre ensayo 1 y 2 de R de
salivación
2. Reducción gradual de R de salivación y
evaluación hedónica
3. Ambas respuestas aumentan
considerablemente al cambiar el sabor.
• ¿Conclusiones?
1. Encontramos la comida menos placentera
cuanto más la comemos (habituación)
2. El sabor de una comida diferente es
suficiente para restablecer la valoración
hedónica.

10
Respuesta de sobresalto en ratas
• Respuesta elicitada y variable dependiente: respuesta de sobresalto.
• Participantes: 2 grupos de ratas.
• Variable independiente: sonido breve (90 ms) e intenso (110 dB)
• Procedimiento:
i. 100 presentaciones del tono separadas entre sí por 30 segundos
ii. Dos condiciones experimentales: (1) ruido ambiental de 60 dB;
(2) ruido ambiental de 80 dB

40
35
• ¿Qué está ocurriendo en el experimento
con la VD en función de las condiciones
RESPUESTA DE SOBRESALTO

30
experimentales?
25 - La presentación repetida del estímulo
20 elicitante no siempre produjo la misma
15 respuesta.
- En un caso se produjo habituación y en
10
el otro se produjo sensibilización.
5 - Comentar implicaciones para la práctica
0
2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10

Ruido de fondo 60 dB Ruido de fondo 80 dB

3. CONCEPTO DE HABITUACIÓN Y SENSIBILIZACIÓN

Habituación: disminución de la tendencia a responder producidas por la estimulación


repetida.

Sensibilización: incrementos en la tendencia a responder por la estimulación repetida.

• La habituación y sensibilización son dos tipos básicos de cambios conductuales


que resultan de la experiencia previa.
• Ayudan a los organismos a adaptarse a un medio complejo y caótico
• Tienen lugar en todas las especies y en todos los sistemas de respuesta. Da un
aspecto al sistema evolutivo del aprendizaje
• Pueden ocurrir en cualquier situación que conlleve la exposición repetida a un
estímulo.

EJ: cuando empiezas a sacarte el carné tu nivel de activación es muy alto y miras
mucho lo retrovisores una vez ya eres conductor el nivel de activación cae en picado

11
4. DIFERENCIAS ENTRE HABITUACIÓN, ADAPTACIÓN SENSORIAL Y FÁTIGA

Habituación, adaptación sensorial y fatiga —— mismo efecto —— disminución de las


RR inicialmente elicitada por EE

• Adaptación sensorial: disminuciones en la sensibilidad


En la adaptación dejamos de sentir el E y en la habituación dejamos de
reaccionar a el
EJ: Quedar temporalmente cegado por una luz brillante y no reaccionar ante
otros estímulos visuales intensos
Sufrir una pérdida temporal de la audición debido a la exposición repetida a un
ruido

• Fatiga: cuando los músculos involucrados quedan incapacitados por el esfuerzo


Adaptación sensorial y fatiga —— impiden las RR a nivel de los órganos
sensoriales y de los músculos, sin la intervención del SN.
Habituación y sensibilización —— cambios neurofisiológicos
- Facilitan la transmisión de los impulsos neuronales:
sensibilización
- Dificultan la transmisión de los impulsos neuronales: habituación

5. Tª DEL PROCESO DUAL DE LA HABITUACIÓN Y LA SENSIBILIZACIÓN

Teoría del proceso dual (Groves y Thompson, 1970)


Siempre que hay una repetición del E se está produciendo habituación y
sensibilización al mismo tiempo, pero en intensidades diferentes.

Sensibilización > Habituación = aumento de la respuesta del organismo y le


llamaremos à sensibilización

Sensibilización < Habituación= disminución respuestas del organismo à


Habituación

• Sensibilización y habituación son efectos diferentes cada uno tiene un


mecanismo de acción diferente.
• Incrementos y disminuciones en la tendencia a responder —— producto de
procesos neurales diferentes.
• Resultado final —— intensidad de cada proceso.
• Los procesos compiten por el control de la conducta.
• Sensibilización y habituación = suma neta de ambos procesos.

12
Mecanismos de acción de habituación y sensibilización
Habituación y sensibilización tienen lugar en diferentes sistemas:

Tendencia de respuesta = S(-) – H(+)

• Habituación: sistema E – R.
• Como arco reflejo.
• Cada presentación de un E elicitante activa el sistema E – R.
1º S. E-R= 0 • Permite al animal dar una respuesta específica al estímulo
Hà S. E-R 2º S. E-R= 2 relevante.
3º S. E-R= 5 • El sistema E – R se activa siempre que un E elicita una respuesta.
* + Presentaciones del E + intensidad de respuesta

• Sensibilización: sistema de estado.


• Determinan el nivel general de disposición o tendencia a
responder de un organismo.
Sà S.ESTADO= 4 • Solo se activa con eventos excitadores (inactivo durante el
sueño) y solo interviene en circunstancias especiales.
• Este sistema tiene la función de modular la actividad de los arcos
reflejos
*el Sistemas ESTADO siempre es del mismo nivel

• Los cambios en la conducta que tienen lugar por la repetición de un estímulo


reflejan la acción combinada de los sistemas E – R y de estado.

EXPLICACION PRÁCTICA Tª DEL PROCESO DUAL DE H Y S


SISTEMAS ESTADO: 12 En la 4ª presentación E-R
à ESTÍMULO
se habitua
SISTEMA E-R: 4

E-R ESTADO TOTAL

1º 0 12 0+12=12

2º 4 12 8+12=20

3º 8 12 4+20=24

4º 12 12 24+0=24

5º 12 12 24+0=24

6º 12 12 24+0=24

13
6. CARACTERÍSTICAS DE LA HABITUACIÓN Y LA SENSIBILIZACIÓN

CURSO TEMPORAL

• Curso temporal de la sensibilización:


• Vida corta
• Determinado por la intensidad del estímulo (a mayor intensidad, más
perdura el efecto).
• Curso temporal de la habituación:
• Dos tipos de habituación:
- Habituación a corto plazo: similar a la sensibilización.
- Habituación a largo plazo: puede persistir durante muchos días.
- Experimento de Leaton (1970)**
• La recuperación espontánea:
• Consiste en la recuperación de una respuesta que previamente había
sido habituada.
• La recuperación espontánea es la principal característica del efecto de
habituación a corto plazo
• Sucede cuando, tras la habituación se permite un período de descanso
lo suficientemente largo.
- La recuperación de la R no es completa cuando se ha producido
habituación a largo plazo (Leaton, 1970).

EXPERIMENTO DE LEATON (1970)

• Respuesta de sobresalto en ratas


• Respuesta elicitada y variable dependiente: respuesta de sobresalto.
• Participantes: grupo de ratas
• Variable independiente: tono agudo e intenso presentado durante 2
segundos
• Procedimiento:
i. Una presentación del tono al día durante 11 días.
ii. 300 presentaciones seguidas (cada 3 segundos) del tono.
iii. Una presentación al día durante los siguientes 3 días.

• ¿Qué está ocurriendo en el experimento con la VD


en función de las diferentes fases del experimento?

• ¿Qué efecto de habituación ocurre en la primera


MAGNITUD DE SOBRESALTO

fase?
Habituación a largo plazo
• ¿Qué efecto de habituación ocurre en la segunda
fase?
1 3 5 7 9 11 2 4 6 8 10 1 3 Habituación a corto plazo
• ¿Qué efecto de habituación ocurre en la tercera
Estímulos una vez al día
fase?
Estímulos cada 3 segundos Recuperación espontánea y habituación a largo
Estímulos una vez al día plazo.
14
• Especificidad del estímulo en la H-:
• H- específica del E presentado repetidamente.
• Experimento de la salivación y de la evaluación hedónica en respuesta a
un sabor.
- Al cambiar el sabor, la magnitud de la respuesta se restablecía.
• No obstante, puede darse cierta generalización (e.j.: sonido parecido de
reloj)
- Generalización del estímulo de la habituación
• Especificidad del estímulo en la S+:
• S+ con poca especificidad al E.
• Ejemplo de traumas.
• Efecto de generalización.

EFECTO DE UN ESTÍMULO EXTERNO INTENSO

• Experimento de deshabituación:
• Variable dependiente: tiempo de fijación.
• Participantes: 2 grupos de bebés humanos.
• Variable independiente: tablero de ajedrez 4x4.
• Procedimiento (tres fases):
i. Ocho presentaciones del tablero 4x4.
ii. En el ensayo 9 uno de los grupos de bebés recibió un sonido de
75 dB junto con la VI.
iii. Tres presentaciones de la VI omitiendo el tono.

• ¿Qué está ocurriendo en el experimento con la


VD en función de las diferentes fases del
experimento?
7
6
• ¿Qué efecto de habituación ocurre en la primera
5
fase?
TIEMPO DE FIJACIÓN

4 Habituación a corto plazo


3
2 • ¿Qué efecto ocurre en la segunda fase, al
1 introducir un estímulo externo?
0 Recuperación de la respuesta
1 2 3 4 5 6 7 8 9 9 10 11 12

Sin tono Con tono • ¿Qué efecto ocurre en la tercera fase, al volver a
eliminar el estímulo externo?
El efecto de la recuperación se mantiene

15
7. Tª DEL PROCESO OPONENTE

La teoría del proceso oponente trata de explicar estos efectos:


• Reacciones emocionales y sus efectos posteriores
• Solomon y Corbit (1974) (ej.: consumo de alcohol; amor; apego):
1. Dos fases en las reacciones emocionales intensas.
i. EE —— RR emocionales
ii. Ausencia de EE —— RR emocionales opuestas
2. Cambian con la experiencia
i. Reacción primaria —— se debilita (tolerancia)
ii. Reacción secundaria (postefecto) —— se intensifica

• Postulado principal
• Los mecanismos fisiológicos involucrados en la conducta emocional
tratan de mantener la estabilidad emocional.
• Teoría homeostática —— el organismo busca reducir las desviaciones
de un estado neutral
• Ante una fuerza x en una dirección, tendrá que haber una fuerza
y, igual y opuesta.
i. EE emocional —— proceso primario o proceso a
(responsable de la emoción x)
ii. Proceso primario o a —— proceso oponente o proceso b
(responsable de la emoción y).
iii. Respuesta emocional consciente = proceso b – proceso a.
• Postulados adicionales
• El proceso oponente es ligeramente ineficiente
• A la zaga de la alteración emocional primaria; no logra
compensar por completo la emoción primaria.
• El proceso oponente se hace más fuerte con la experiencia y la
práctica (sensibilización)
• Llega un punto en el que logra bloquear la mayor parte de la
reacción emocional primaria.
• En este momento provoca un postefecto muy intenso cuando el
EE activador emocional desaparece.

• Mecanismos oponentes durante la exposición inicial al estímulo

i. Primera presentación del EE: proceso a sin la oposición del


proceso b.
• Nivel más alto de la RR emocional primaria
ii. Activación del proceso b y comienzo de la oposición al
proceso a.
• Intensidad del proceso b moderada —— insuficiente
para compensar el proceso a.
iii. Tras retirada del EE, desaparición del proceso a, mientras
que el proceso b se mantiene.
• La respuesta característica del proceso b se hace, por
primera vez, visible.

16
• Mecanismos oponentes tras la exposición prolongada al estímulo

i. Se asume que el proceso b se fortalece con la


exposición prolongada al estímulo.
• Se activa antes tras la aparición del EE.
• Su intensidad máxima se hace mayor
• Tarda más tiempo en decaer tras las
desaparición del EE
ii. Se asume que el proceso a permanece inalterable
• Tras la presentación repetida de un EE, la RR
emocional primaria queda compensada por el
proceso oponente.
• Cuando el EE desaparece, el postefecto
aumenta en su intensidad

¿Cómo se puede aplicar la teoría del proceso oponente al consumo de drogas?

8. VARIACIONES EN LA CONDUCTA DIRIGIDA A METAS

(NO ENTRA)
Situaciones en las que los organismos responden repetidamente para obtener un
reforzador muestran muchas de las propiedades comunes de la habituación y la
sensibilización

Conducta a examinar: Encender la radio de un coche


1. ¿Probabilidad de encender la radio de un coche si está averiada y siempre suena la
misma canción? (la canción, a priori, nos encanta)
Habituación
2. ¿Y si la radio no está averiada y cada vez suena música diferente?
Especificidad del EE
3. La radio está averiada, pero llevo sin escuchar la canción unos cuantos días
Recuperación espontánea
4. La radio está averiada, he escuchado la canción hace poco, pero se monta una amiga
en el coche
Sensibilización

17
1. INTRODUCCIÓN AL CONDICIONAMIENTO CLÁSICO
2. HISTORIA DEL CONDICIONAMIENTO CLÁSICO
3. SITUACIONES EXPERIMENTALES DEL CONDICIONAMIENTO CLÁSICO
4. CONDICIONAMIENTO PAVLOVIANO EXCITATORIO
5. CONDICIONAMIENTO PAVLOVIAO INHIBITORIO (INHIBICIÓN CONDICIONADA)
6. EFICACIA DE LOS EC Y DE LOS EI
7. NATURALEZA DE LA RESPUESTA CONDICIONADA
8. MODELOS DEL CONDICIONAMIENTO CLÁSICO

1. INTRODUCCIÓN AL CONDICIONAMINETO CLÁSICO

Habituación y sensibilización
• Aprendizaje tipo EE —— RR
• No aprendizaje de RR fuera del repertorio conductual del sujeto
• No permiten el aprendizaje de nuevas RR
• No permiten el aprendizaje de RR a nuevos EE
• El aprendizaje tiene lugar sobre un solo EE

El Condicionamiento Clásico o CC es el mecanismo más simple por el cual los


organismos pueden aprender acerca de las relaciones entre estímulos y cambiar su
conducta en conformidad con las mismas
• Aprendizaje asociativo
• Permite el aprendizaje de RR a nuevos EE
• El aprendizaje tiene lugar sobre varios EE

2. HISTORIA DEL CONDICIONAMIENTO CLÁSICO

--PRIMEROS AÑOS DEL CONDICIONAMIENTO CLÁSICO--

Twitmyer (1902).

• Reflejo patelar en estudiantes universitarios.


• EC: sonido de campana.
• EI: golpe en el tendón rotuliano
• Efecto: Tras varios ensayos, la campana basta para elicitar el reflejo
patelar

18
Pavlov
• Investigación sobre el proceso de digestión
• Sus técnicos descubrieron que los perros secretaban jugos gástricos en
respuesta a la mera visión de la comida o de la persona que
habitualmente les alimentaba.
• Se denominaron “secreciones psíquicas”
• Escaso interés científicos durante muchos años

Los descubrimientos de Vul`fson y Snarskii (laboratorio de Pavolv)


• Primeros estudios sistemáticos
• Después de que los perros hubieran experimentado la sensación
provocada por las sustancias (comida seca, comida húmeda, agua ácida
y arena), la mera visión de las mismas era suficiente para provocar
salivación.
• Experimentos con diferentes EE —— generalización de las asociaciones.

El paradigma de condicionamiento clásico


• Dos estímulos
i. Un tono o luz que no provoca salivación al principio del
experimento
ii. Un alimento o solución ácida situada en la boca
• Descripción de los estímulos:
i. Tono o luz: estímulo condicionado o condicional (EC).
ii. El alimento o solución ácida: estímulo incondicionado o
incondicional (EI).
iii. Salivación provocada por el alimento: respuesta incondicionada
o incondicional (RI).
iv. Salivación provocada por el tono o la luz: respuesta
condicionada o condicional (RC).

3. SITUACIONES EXPERIMENTALES DEL CONDICIONAMIENTO CLÁSICO

Condicionamiento del miedo (inicio histórico)

• Watson y Rayner (1920)


• Condicionamiento de la respuesta de miedo de un niño de 9
meses (Albert)
• EC: rata blanca.
• EI: fuerte sonido
• RI: miedo, llanto.
• Cinco ensayos en los que se presentaba, primero, el EC y,
después, el EI.
• Tras los cinco ensayos: RI en presencia del EC.
• El miedo condicionado se generalizó pronto a otros objetos
peludos.

19
Condicionamiento del miedo (situación experimental clásica)
• Sujetos: ratas de laboratorio.
• EI: descarga eléctrica (administrada a través de una rejilla en el suelo).
• EC: tono o luz.
• RI: miedo; disminución del movimiento.
• Técnica para medir el miedo: respuesta emocional condicionada o
supresión condicionada (REC)

Diseñado por Estes y Skinner (1941)


1. Fase previa: se enseña a las ratas a presionar una
barra para obtener comida
2. Fase de condicionamiento
I. Presentación del EC 1-2 minutos
II. Aplicación de la breve descarga
III. Separación de entre 15-30 minutos entre
ensayos
3. Resultado: las ratas no presionan la palanca
mientras están paralizadas por el miedo.
EJ Razón de Supresión I. Tras varios ensayos la RI ocurre ante la
1´= 20 veces 1´=5 veces presentación del EI y también del EC.
EC= luz II. La supresión condicionada puede ser
completa (eliminación completa de la
Rs= 5/5+20 = 5/25 = 1/5= 0,20 conducta de presionar la barra) en 3 o 5
ensayos de condicionamiento.
Rs= 20/20+20 = 20/40 = 1/2 = 0,5 4. Medición cuantitativa de la supresión
condicionada:
Rs= 0/0+20 = 0/20 = 0 I. Razón de supresión = Respuesta durante
el EC /(respuesta durante el EC +
Respuestas durante el pre – EC)
II. Valor de O si la supresión es completa /
Valor de 0,5 si la supresión es nula.

Condicionamiento del miedo (situación experimental clásica)


• Sujetos: ratas de laboratorio.
• EI: breve descarga.
• EC: luz
• RI: miedo (medido a través de la razón de supresión)
• Procedimiento: Se realizan tres ensayos de condicionamiento en tres
días de entrenamiento distintos. ¿Conclusiones?
• Nótese el efecto que tiene el intervalo entre
0,6
ensayos (a nivel intra e inter día)
RAZÓN DE SUPRESIÓN MEDIA

0,5 • Nótese el número de ensayos necesarios para


0,4 provocar el condicionamiento

0,3 EC (1´)à LUZ (1´) DIA 1: Entrenamiento al comedero 20


0,2 EIà descarga DIA 2:
RI-RC à Inmovilidad 1ª EC (luz) --------- EI (descarga)
0,1
2ª EC --------- EI EC= 20 RS= 0,5
0 3ª EC ----------EI EC= 18 RS= 0,95
1 2 3 4 5 6 7 8 9
ENSAYOS A medida que baja RS (la línea del gráfico) hay + aprendizaje 20
Condicionamiento del parpadeo
• El reflejo palpebral es un reflejo discreto y uno de los primeros
componentes de la respuesta de sobresalto que tiene lugar en varias
especies.
• Situación experimental (Ivkovich, Collins, Eckerman, Krasnegor y
Stanton, 1999):
• Sujetos: niños de 5 meses.
• EI: ligero soplo administrado directamente sobre el ojo.
• EC: tono
• VD: % de ensayos con respuesta condicionada
• Procedimiento: dos grupos, con dos sesiones de entrenamiento
(6 ensayos) espaciadas por una semana
• Grupo experimental: emparejamiento EC-EI (12 segundos
entre ensayos)
• Grupo control: EC —— 4-8 segundos ——EI (no
emparejados)

90
% DE ENSAYOS CON RR

80
CONDICIONADA

70 • Tasa de parpadeos sin diferencias en la


60 primera sesión experimental
50 • En la segunda sesión, el GE responde con
40 tasa mayor que el GC.
30 • El CC requiere emparejar EC-EI
20 • El aprendizaje inicial puede no ser
10 directamente observable.
0
1 2 3 4 5 6 7 8 9 10

Emparejado (n = 10) Desemparejado (n = 11)

Seguimiento del signo


• Experimento clásico
• Sujetos: palomas
• EC: estímulo visual discreto (discreto quiere decir que es algo en
un espacio concreto que sabemos cuándo empieza y termina)
(disco de luz) que aparece en uno de los extremos de una jaula y
que está encendido durante 8 segundos.
• EI: comida que aparece en el extremo opuesto de la jaula
transcurridos los 8 segundos de EC independientemente de la
conducta de la paloma.
• ¿Cuál es la respuesta esperable?
La paloma utiliza la clave visual para predecir la aparición de
comida y espera ésta junto al comedero
• ¿Qué ocurría en realidad?
La paloma picotea el disco de luz cuando este se enciende y
después corre a por la comida cuando esta aparece.

21
• Variaciones del experimento
• Hearst y Jenkins (1974) colocaron a las palomas en un pasillo de
182 cm.
• En ambos extremos del pasillo había un disco circular
iluminable.
• La comida iba precedida por la iluminación de uno de los
discos, mientras que el otro se iluminaba de forma
aleatoria.
• La comida estaba solo disponible durante 4 segundos
• Resultado: cuando la tecla EC se iluminaba, las palomas
corrían hacia allí y después volvían a la comida, pero no
siempre a tiempo para comer.

• Rescorla, Durlach y Grau (1985) utilizaron como EC claves


contextuales y espaciales difusas.
• Encontraron que el aprendizaje se manifestaba como un
incremento en la actividad de la paloma, más que como
una respuesta de aproximación específica
• Conclusión: El seguimiento del signo solo es posible en
situaciones en las que el EC tiene una localización precisa
y, por tanto, puede ser “seguido”
• Cleland y Davey (1983) utilizaron ratas y dos EC: una luz bien
localizada y un sonido.
• Solo la luz estimuló la conducta condicionada de
aproximación o seguimiento del signo.
• El EC auditivo provocaba una aproximación al comedero
en lugar de una aproximación a la fuente del sonido.

Aprendizaje de aversión al sabor


• Experimento de Smith y Roll (1967)
• Sujetos: ratas
• EC: agua con sacarina
• EI: enfermedad
• Respuesta: % de preferencia por una solución de agua con
sacarina al 0,1%
• Procedimiento:
i. Programa de privación de agua para ratas
ii. Administración de rayos X a ratas por grupos en función
del tiempo (horas) transcurrido entre EC y EI (0, 1, 3, 6,
12, 24).
iii. No administración de rayos X, aunque se les lleva en el
mismo intervalo a la cámara de rayos X
iv. Después se les permite beber agua normal o agua con
sacarina durante 20 minutos.

22
Falsa exposición
• ¿Cuántos ensayos han hecho falta para
100 producir el condicionamiento?
% DE PREFERENCIA

50

0 • ¿Qué ocurre con el tiempo entre la


0 1 3 6 12 24 presentación del EC y el EI? ¿Qué efecto
INTERVALO EC-EI tiene?
(HORAS)

Aprendizaje de aversión al sabor


Rozin y Zellner (1985): “el condicionamiento clásico está plenamente activo en las
asociaciones entre los sabores de los miles de millones de comidas que se ingieren cada
día… en las asociaciones entre comidas y objetos nocivos y en las asociaciones de las
comidas con algunas de sus consecuencias”
• La aversión al sabor puede aprenderse si la ingestión de un sabor nuevo
va seguida de enfermedad o de otras consecuencias aversivas.
• La preferencia por un sabor puede aprenderse si un sabor se empareja
con la sensación de saciedad o con otras consecuencias positivas.
• Tres características importantes y específicas de este aprendizaje
• Puede ocurrir tras un único ensayo de emparejamiento EC-EI
• Puede tener lugar incluso si la enfermedad se manifiesta con
varias horas de retraso con respecto a la ingestión de la comida
(comparar con el condicionamiento palpebral). Aprendizaje
demorado.
• Sucede aún cuando el sujeto sabe que la enfermedad no está
provocada por la comida ingerida
Explica por qué los pacientes con cáncer adquieren aversiones a los alimentos
ingeridos justo antes de una sesión de quimioterapia

4. CONDICIONAMIENTO PAVLOVIANO EXCITATORIO

CC excitatorio: se aprende una asociación EC-EI.


• El EC activa la actividad conductual y neuronal relacionada con el EI, sin
la presentación real del EI.

Aspectos a tener en cuenta en el CC:


I.Intervalo entre ensayos: tiempo entre el final de un ensayo de condicionamiento y el
comienzo del siguiente.
II.Intervalo entre estímulos o intervalo EC-EI: tiempo entre el comienzo del EC y el
comienzo del EI.
- Para que se desarrolle la respuesta condicionada, el intervalo
entre estímulos debe ser mucho más corto que el intervalo entre
ensayos.
III.Intervalo de huella: tiempo desde que termina el EC y comienza el EI.

23
Tipos de condicionamientos pavlovianos:

• ¿Cómo medir las respuestas condicionadas?


i. Ensayo de prueba: presentación del EC sin que vaya seguido del EI.
ii. Tres tipos de mediciones:
i. Magnitud de la RC
ii. Probabilidad de la RC (frecuencia con la que el EC provoca RC)
iii. Latencia de la RC (cantidad de tiempo que pasa entre el principio
del EC y el principio de la RC)

• ¿Cómo saber si es el CC el que está generando la repuesta?


i. Se debe establecer un procedimiento de control.
i. Asegura que el cambio conductual observado no puede haber
sido producido por la mera presentación del EC o del EI por
separado.
ii. Pseudocondicionamiento: cuando la mera exposición al EC da
lugar a respuestas similares a la respuesta condicionada.
iii. Dos procedimiento estándar de control:
i. Control aleatorio: Presentaciones aleatorias de EC y EI
durante una sesión experimental (puede producir un
aprendizaje asociativo)
ii. Control desemparejado explícito: el EC y el EI se
presentan lo suficientemente separados para evitar que
se asocien.

Pseudocondicionamiento: Produzco varias asociaciones de EC (ruido) y EI (descarga),


hasta que el EC es capaz de generar una respuesta condicionada (supresión de
respuesta). A continuación yo presento otro estímulo neutro (una luz) y el sujeto
responde con la misma RC con la que respondía al EC (ruido), aunque el estímulo
neutro nunca se ha asociado con el EI. Esto es el pseudocondicionamiento. A pesar de
que nunca se ha tenido la oportunidad de aprender el valor de ese estímulo neutro, se
responde a él como si fuera un EC para ese EI, aunque no lo sea.

24
• Eficacia de los procedimientos típicos de condicionamiento
I. Perspectiva tradicional:
• Importancia del intervalo EC-EI:
• Eje x: Intervalo EC-EI
• Eje y: Respuesta condicionada
• Poco condicionamiento en procedimientos de condicionamiento
simultáneo
• Menos efectivo el condicionamiento de huella que el de demora.
• Idea de que el condicionamiento es más efectiva cuando el EC es
un buen predictor del EI.
• El condicionamiento hacia atrás ha obtenido resultados
ambiguos (excitatorio, inhibitorio y ambos).
II. Perspectiva actual:
• Los procedimientos de demora, simultáneo, de huella y hacia
atrás producen un aprendizaje sólido.
• Se aprenden cosas diferentes en cada uno.
• Hipótesis de la codificación temporal: se aprende, además de la
asociación EC-EI, cuándo aparece el EI en relación al EC.

5. CONDICIONAMIENTO PAVLOVIANO INHIBITORIO

CC inhibitorio: aprender a predecir la ausencia de un estímulo incondicionado.


• EC — no EI.
• ¿Valor adaptativo para la especie?
• Ejemplo: ataques de pánico.
Estudio de Craske, Glover y DeCola (1995).
VD: Nivel de ansiedad general diaria (0-8)
VI: Ataques de pánico predecibles (APp) Vs ataque de pánico
impredecibles (APi

• ¿Qué está ocurriendo en el experimento?


5,4 i. La ansiedad “antes” es similar para los
ataques de pánico imprevistos y previstos
ANSIEDAD GENERAL DIARIA

5,2
ii. La ansiedad ”después” es mucho mayor
5
cuando se da un ataque de pánico
4,8 imprevisto
4,6 • Si alguien debe ser expuesto a una estimulación
4,4 aversiva, es preferible que los EE aversivo sean
predecibles.
4,2
i. Esto ocurre, no tanto porque podamos
4
predecir un evento negativo, sino porque
Antes Después
somos capaces de predecir la no aparición
Imprevisto Previsto de un estímulo aversivo.
ii. Las señales que predicen la no aparición de
un EE aversivo son EC inhibitorios

25
Procedimientos de condicionamiento inhibitorio

• Requisito previo: existencia de un CC excitatorio previamente establecido o


contexto excitatorio para el EI en cuestión
• Ejemplo: Cártel de “No hay gasolina” en una gasolinera, frente a “no hay
gasolina” en una carpintería.
• ¿En cuál de las dos situaciones el cártel motiva la conducta del
sujeto? ¿Por qué lo hace?
• Procedimiento estándar de inhibición condicionada (Pavlov):
• Dos tipos de ensayos diferentes presentados de forma aleatoria:
• EC+ (tono) —— EI (comida): proporciona el contexto excitatorio.
• EC+ (tono) + EC— (luz) —— ausencia de EI: el EC— adquiere
propiedades inhibitorias.
• ¿Ejemplos prácticos de condicionamiento inhibitorio en la vida real?
• Semáforo y agente de policía.
• Lexatin en el bolso.
• Acoso escolar y presencia del profesor

Medición de la inhibición condicionada

• Tres pruebas para la medición:


i. Sistemas de respuesta bidireccionales
ii. La prueba del estímulo compuesto o sumación
iii. La prueba del retraso en la adquisición

1.Sistemas de respuesta bidireccionales


En estos casos, la medición es sencilla dado que los sistemas de
respuesta pueden variar en dirección opuesta con respecto a una línea
base de ejecución normal.
• Respuestas fisiológicas: ritmo cardíaco, respiración, temperatura
corporal.
• Cambios conductuales que se incrementan en un contexto
excitatorio y se reducen en uno inhibitorio (presionar una
palanca)
• Paradigma del seguimiento del signo:
• Con un EC+, la paloma se acerca al disco
• Con un EC—, la paloma se aleja del disco
• Con un EC con propiedades excitatorias e inhibitorias no
se puede utilizar este sistema, pues la paloma no se
puede alejar y acercar del disco al mismo tiempo.

2. La prueba del estímulo compuesto o sumación


• Por ejemplo: respuesta de parpadeos en conejos.
• En ausencia de un EI, los conejos no parpadean.
• Si aplico el EC— y el conejo no parpadea, ¿es porque se ha
producido inhibición o es porque los conejos no parpadean?

26
• Esta prueba compensa las dificultades originadas por una baja línea
base.
• El procedimiento consiste en medir la reducción en la RC, tras haber
producido un EC+.

3. La prueba del retraso en la adquisición


• La velocidad de adquisición de una respuesta excitatoria debería
disminuir si el EC es un inhibidor condicionado.
• Esta prueba es temporalmente opuesta a la anterior.
• Primero se produce la inhibición, aunque su efecto no sea
visible.
• Y después se produce la excitación, comparando con un grupo
control donde nunca se ha producido la inhibición.

6. EFICACIA DE LOS EC Y EI

¿A qué deben su eficacia los EC y los EI?

Respuestas iniciales a los EE:


• El EC inicialmente no provoca la RC, pero adquiere la capacidad de
hacerlo como resultado del desarrollo de una asociación con el EI.
• Por el contrario, el EI elicita eficazmente la respuesta en cuestión desde
el principio, sin ningún entrenamiento especial.
• La identificación de los EC y de los EI es siempre relativa
• Un estímulo puede servir como EC en una situación determinada
y como EI en otra, en función de la RI que queramos provocar.
• Ej.: el sabor puede ser EC en un experimento de aversión
al sabor, en el que el malestar hace de EI. El sabor
(alimento) también puede hacer de EI en un experimento
de seguimiento del signo.

La novedad de los EC y EI:


• El efecto conductual de un estímulo depende de su novedad
- A mayor novedad del EC o del EI, mayor magnitud en el
condicionamiento.
• Procedimiento de estudio experimental con el EC
• Dos fases
1. Se expone repetidamente a los sujetos al estímulo que luego
será el EC (fase de pre-exposición).
2. Procedimiento estándar de CC con el EC utilizado previamente.
• Resultados:
- La familiarización inicial con un estímulo presentado
aisladamente suele retrasar el CC posterior de dicho estímulo.

27
Efecto de preexposición al EC o efecto de inhibición latente.
• Conclusiones:
- Este fenómeno sirve para limitar la cantidad de procesamiento y
atención a los EE que se sabe que carecen de consecuencias.
- La inhibición latente sirve para sesgar el aprendizaje en favor de
los estímulos novedosos.
• Procedimiento de estudio experimental con el EI
- Similar a cuando se utilizad el EC, con resultados similares:
efecto de preexposición al EI

Saliencia del EC y del EI


• Saliencia: significación o perceptibilidad de un estímulo para el
organismo
• A mayor saliencia del EC o del EI —— mayor magnitud de la respuesta
condicionada.
• Formas de aumentar la saliencia de un estímulo:
- Aumentando su intensidad.
- Haciendo que sea más relevante en relación a las necesidades
biológicas del organismo (privación)
- Haciendo que el EC del laboratorio sea más parecido a los EE que
se pueden encontrar en el medio natural del organismo.

Relevancia o pertinencia EC-EI


• Cuanto más relevante es o pertinente es el EC para predecir el EI,
mayor es el condicionamiento
• Experimento de García y Koelling (1966)
• Sujetos: ratas
• VD: supresión de lameteo
• Dos EC: (1) EC gustativo: sabor; (2) EC audiovisual: clic y destello
de luz.
• Dos EI: (1) EI descarga eléctrica (dolor periférico); (2) EI inyección
de una droga que genera malestar
• Procedimiento:
i. Las ratas experimentan al mismo tiempo los dos EC.
ii. A continuación, algunas de ellas recibían uno de los EI y
otras el otro EI
iii. Por último, se presentaban los EC sin que estuvieran
seguidos del EI para observar el grado de
condicionamiento (supresión del lameteo).

4 • ¿Interpretación del gráfico?


LAMETEOS POR MINUTO

3 El sabor se asocia más fácilmente al malestar


2
Las claves audiovisuales se asocian más
fácilmente al dolor periférico
1
El aprendizaje depende de la relevancia o
0 adecuación del EC con respecto al EI que se
Malestar Descarga administra
Gustativo Audiovisual

28
El concepto de fuerza biológica
• Se entiende la fuerza biológica como la capacidad de un estímulo de
elicitar una respuesta
• Según Pavlov, para que un estímulo se condicionara, debía tener una
fuerza biológica menor que la del estímulo incondicionado con el que se
emparejaba.

• Condicionamiento de orden superior: cuando un estímulo que ha sido


previamente condicionado puede actuar como EI en otras situaciones
(p.ej.: problemas de ansiedad, problemas traumáticos, relación el
dinero, etc.).
• Condicionamiento de primer orden, de segundo orden, de tercer
orden, etc.
• Procedimiento de condicionamiento de orden superior:
1. EC (luz) —— EI (comida) (RC: salivación o seguimiento del
signo)
2. EC (tono) —— EI (luz) (RC: salivación o seguimiento del
signo)
• ¿Se parece a alguno de los procedimientos estudiados hasta
ahora?
• Procedimiento similar a la inhibición condicionada.
- EC (luz) = EC+ // EC (tono) = EC—
- En este caso no genera un efecto inhibitorio, sino excitatorio…
¿Por qué?
- La clave parece estar en el número de ensayos “no EI”
Pocos ensayos “no EI” —— condicionamiento excitatorio
Muchos ensayos “no EI” —— inhibición condicionada

• Contracondicionamiento: la respuesta que un animal da a un EC se


invierte o contrarresta emparejando ese estímulo con un EI que provoca
una reacción opuesta.
• Pearce y Dickinson (1975):
• Sujetos: grupos de ratas
• Procedimiento: supresión condicionada
• Dos grupos:
i. GE: Descarga + comida
ii. GC: Descarga y comida desemparejadas o solo
uno de los dos EI
• Resultados:
i. Las ratas del GE tienen un condicionamiento
menor de supresión condicionada que los del GC.
• Explicación: Dado que cuando se presenta la descarga,
las ratas del GC se acercaban a la comida, se entiende
que la descarga (alta fuerza biológica) funciona como EC
de la comida.
• Corolario: en el contracondicionamiento, dos estímulos
pueden quedar asociados el uno con el otro, aunque

29
ambos eliciten inicialmente respuestas intensas. Viola el
principio de propuesto por Pavlov

• Precondicionamiento sensorial
• Dos estímulos que apenas elicitan respuestas; es decir, dos EC
con una fuerza biológica débil (EC1 = sabor a vainilla y EC2 = sabor
a canela)
• Emparejamos EC1 con un EI intenso (inyección que provoca
malestar), lo que termina provocando una RC (malestar al notar
el sabor de vainilla).
• Al presentar EC2 (sabor a canela) también se produce RC
(malestar), aunque nunca se ha asociado este estímulo con el EI
(inyección que provoca malestar).
• Este supuesto también viola el principio de fuerza biológica
propuesto por Pavlov, dado que, en este caso, los dos EC tienen
una fuerza biológica débil y, aún así, se pueden asociar

7.NATURALEZA DE LA RESPUESTA CONDICIONADA

¿Qué determina la naturaleza de la respuesta condicionada?

El modelo de sustitución del estímulo


• El EC adquiere la capacidad de funcionar de forma similar a como el EI
lo hacía previamente.
• Se asume que el EC activa los circuitos neuronales que
previamente activaba solo el EI y elicita respuestas similares a las
del EE.
• Así pues, el EC se convierte en un sustituto del EI.
• Así mismo, se sabe que el EI es un factor determinante de la RC
• Experimento de Jenkins y Moore (1973)
• La RC de palomas en un experimento de seguimiento del
signo variaba en función del tipo de EI:
• EI = granos de cereal —— RC: picoteos rápidos
sobre el disco con el pico abierto en función del
tamaño de los cereales
• EI = agua —— RC: picoteos más lentos, con el pico
cerrado y con intentos de deglución.
Aprendizaje y homeostasis:
• Homeostasis: mecanismos fisiológicos que mantienen los aspectos
críticos del cuerpo dentro de unos límites aceptables.
• Requiere de la existencia de procesos opuestos, compensatorios.
• El sistema opera mediante un bucle de retroalimentación
negativa.

30
•Se detecta un desvío y entonces el sistema actúa con
proceso compensatorio.
• Sistema ineficiente si debe esperar a que se
produzca el desvío para actuar.
• Sistema eficiencia si puede predecir la aparición
de un desvío y actuar con anterioridad.
• Papel del CC: la respuesta condicionada a
una alteración fisiológica es igual que la
respuesta compensatoria a dicha
alteración.
• Ejemplo: consumo de drogas psicoactivas
• Alteraciones homeostáticas producidas por el consumo.
• Alteraciones provocan reacciones compensatorias.
• Las reacciones compensatorias se condicionan.
• La ansiedad por consumir es una respuesta
compensatoria condicionada.
• Experimento de Ehrman, Robbins, Childress y O’Brien
(1992)**

EJ: Experimento de Ehrman, Robbins, Childress y O´brien, 1922

• Sujetos:
• GE: hombres con un historial de consumo de cocaína (sin historia de
consumo de heroína)
• GC: hombres sin historia de consumo de drogas.
• Procedimiento: tres condiciones de prueba:
• Presentación de las claves contextuales relacionadas con el consumo de
cocaína
• Presentación de las claves contextuales relacionadas con el consumo de
heroína
• Presentación de estímulos sin relación con el consumo de droga.
• VD: cambios en el ritmo cardíaco con respecto a una línea base.

• Modelo de condicionamiento de tolerancia a las drogas


5
• Visión tradicional: efecto de tolerancia a las
CAMBIO MEDIO CON RESPECTO A LA LÍEA

4 drogas producido por procesos farmacológicos


3
• Shepard Siegel: efecto de tolerancia por CC.
• Las claves contextuales del consumo de
2 drogas actúan como EC de la respuesta
compensatoria
BASE

1
• Necesidad de consumir más sustancia para
0
Grupo cocaína Grupo sin experiencia con
obtener mismos efectos.
-1 drogas • Predicciones acertadas del modelo:
• Modificación de las claves —— pérdida de
-2
tolerancia
-3 • Pre-exposición al EC —— pérdida de
Cocaína Heroína Neutro tolerancia

31
El EC como determinante de la forma de la RC
• Experimento de Timberlake y Grant (1975)
• Sujetos: ratas
• EI: comida
• Respuesta esperable según el modelo de sustitución del
estímulo: roer y morder
• EC: otra rata
• Procedimiento: 10 segundos antes de EI, aparece EC.
• Respuesta observada: conductas de orientación, aproximación,
olfateo y contacto social a medida que aumentaban los ensayos
EC-EI.
• Si no hay emparejamientos EC-EI, estas respuestas no se
daban.
El patrón de respuestas condicionadas, particularmente la conducta social elicitada por
la rata EC, estuvo sin duda determinado por la naturaleza del EC

Conducta condicionada y sistemas de conducta


• Teoría de los sistemas de conducta:
• Un EI activa un sistema de conducta relevante para ese EI (y no
solo una respuesta específica).
• EI = comida: activa sistemas de búsqueda de
alimentación
• EC asociado a EI no activa una RC, sino el sistema de
conducta de ese EI.
• Predicción (confirmada) de la teoría: La forma de la RC depende
del intervalo EC-EI que se utilice.
• El intervalo EC-EI determina el lugar en el que se
incorporará el EC dentro de la secuencia de respuestas
del sistema de conducta.
• Ejemplo de experimento de Akins (2000) con codornices
machos y la respuesta sexual
• Con un intervalo EC-EI de 1 minuto, el
procedimiento de condicionamiento produce
bastante búsqueda focalizada (pero no búsqueda
general); con un intervalo EC-EI de 20 minutos, se
produce bastante búsqueda general, pero no
búsqueda focalizada.
• Teoría compatible con:
• La naturaleza del EI determina la forma de la RC
(diferentes EI`s activan diferentes sistemas de conducta.
• La naturaleza del EC determina la forma de la RC (ciertos
tipos de estímulo son más efectivos que otros a la hora
de elicitar un componente particular del sistema de
conducta).

32
8.MODELOS DE CONDICIONAMIENTO CLÁSICO

¿Cómo se asocian los E condicionado e incondicionado?


Varias teorías propuestas:
• El efecto del bloqueo
• El modelo de Rescorla y Wagner
• Factores temporales y respuesta condicionada

EL EFECTO BLOQUEO

El efecto del bloqueo (Kamin, 1968, 1969) no es una teoría en sí, pero es un efecto que
abrió camino para la elaboración de otras muchas teorías.
• Paradigma del efecto del bloqueo:
• Dos grupos: GE y GC
• Tres fases:
i. GE: ECA —— EI / GC: Nada.
ii. GE: ECA + ECB —— EI / GC: ECA + ECB —— EI.
iii. ECB en solitario
• Resultados: En el GE el ECB apenas ofrece RC, mientras que en el GC el
ECB sí ofrece una RC intensa.
i. El hecho de que el EI se haya asociado a un EC previo (ECA)
“bloquea” el condicionamiento a otro estímulo (ECB).
El efecto del bloqueo muestra que no es suficiente emparejar un EC con un EI para que
se desarrolle la RC.
¿Por qué la presencia del estímulo A previamente condicionado bloquea la adquisición
de la respuesta a la clave añadida B?
• Según Kamin, para que se produjera aprendizaje de forma efectiva, el EI
debía ser sorprendente. Si el EI va señalado por un estímulo
previamente condicionado (A), no sorprenderá al sujeto y, por tanto, no
funcionará bien a la hora de condicionar al estímulo añadido B.

EL MODELO DE RESCORLA Y WAGNER

Es un modelo matemático que parte de la idea central de que la efectividad de un EI


está determinada por el grado en que resulta sorprendente.

Aspectos a considerar:
• Definición de sorprendente: un evento es sorprendente si es diferente
de lo que se espera.
• La expectativa del EI está relacionada con las propiedades
condicionadas o asociativas del estímulo que precede al EI:
- Una respuesta condicionada intensa indica una fuerte
expectativa de que el EI aparecerá
- Una respuesta condicionada débil indica una baja expectativa de
que el EI aparecerá

33
• Un EI inesperadamente grande es la base del condicionamiento
excitatorio o del incremento de la fuerza asociativa
• Un EI inesperadamente pequeño es la base del condicionamiento
inhibitorio o de la disminución de la fuerza asociativa.

Formulación matemática del modelo

ΔV = k(λ – V)

• λ: asíntota de aprendizaje que permite el EI utilizado.


• V: valor asociativo de los estímulos que preceden al EI.
• (λ – V): sorpresividad del EI.
- El valor de (λ – V) es alto al principio del aprendizaje (ya
que V, el valor asociativo de los EE que preceden al EI
está cercano a cero en ese momento).
- Una vez que el valor asociativo de las claves que
preceden al EI se ha incrementado, (λ – V) será pequeño
y será poco el aprendizaje adicional que pueda tener
lugar.
• El aprendizaje que se produce en un determinado ensayo de
condicionamiento es el cambio en el valor asociativo de un
estímulo. Ese cambio se representa como ΔV
• K: constante relacionada con la saliencia del EC y del EI

Aplicación del modelo al efecto del bloqueo:
II. Fase I: condicionamiento extenso del ECA
• (VA = λ)
III. Fase II: fallo al intentar condicionar ECB, dado que está presente ECA
• Se explica dado que el EI es perfectamente predecible por la
presencia del estímulo A: (λ —VA+B) = 0

Predicción (verificada) del modelo: pérdida de valor asociativo a pesar de los


emparejamientos con el EI
• En ciertas circunstancias (cuando los EE se presenten juntos en un ensayo de
condicionamiento después de haber sido entrenados por separado), las
propiedades condicionadas de estos se reducirán a pesar de que siga habiendo
emparejamientos con el EI.
• Experimento de dos fases / Dos EC (ECA y ECB) y un EI (una bolita de comida)
- ECA — EI / ECB — EI (condicionamiento por separado de los dos
EC´s).
VA = VB = λ

- ECA + ECB — EI
• ¿Qué sucede con las propiedades condicionadas de los
estímulos A y B como resultado del entrenamiento de la
fase 2?

34
• El sentido común dice que las propiedades condicionadas
se mantendrán sin cambios.
• El modelo predice que se reducirán pues… VA+B = VA + VB
= 2λ Sin embargo, sigue cayendo una sola bolita de
comida, en lugar de dos, por lo que el EI es
sorprendentemente pequeño, lo que hace que las
propiedades condicionadas disminuyan.

Inhibición condicionada:
1) EC+ —— EI
2) EC+ (+) EC— —— Ausencia de EI.
• Exceso de expectativa en el ensayo de inhibición condicionada.
• Se reduce la fuerza del condicionamiento.
• El modelo de Rescorla y Wagner explica la inhibición
condicionada asumiendo que el EC— adquiere un valor
asociativo negativo.

Extinción de la excitación y de la inhibición:


• En un procedimiento de extinción, el EC se presenta repetidamente sin el EI.
• Extinción de la excitación:
- Exceso de expectativa la primera vez que el EC se presente sin
ser seguido del EI.
- Sucesivos ensayos: la expectativa elicitada por el EC se va
acercando a la línea que representa la ausencia de EI por medio
de una reducción gradual del valor asociativo del EC+ hasta
llegar a cero.
• Extinción de la inhibición:
- Al principio, el EC— genera una expectativa excesivamente baja
del EI.
- Para ajustar la expectativa a la ausencia de EI, el valor asociativo
del EC— se va perdiendo gradualmente y el EC— termina con
una fuerza asociativa igual a cero.
La extinción de la inhibición condicionada NO se produce en la
realidad.

Problemas del modelo:


1. El análisis de la inhibición condicionada no es correcto.
• El modelo predice que la presentación repetida de un EC— sin el
EI debería dar lugar a una pérdida de la inhibición condicionada,
pero esto no sucede.
• No reforzar un EC— (no asociarlo a un EI) AUMENTA sus
propiedades inhibitorias.
2. Considera la extinción como lo opuesto a la excitación.
• En realidad, la extinción parece involucrar el aprendizaje de una
nueva relación entre el EC y el EI
3. El modelo postula que un estímulo solo puede tener propiedades
excitatorias o inhibitorias, no ambas.

35
• Algunos estudios han encontrado que un mismo estímulo puede
tener ambas propiedades.
4. Problemas a la hora de predecir el efecto de aumento o contrabloqueo:
• Paradigma de aversión al sabor y al olor:
i. Fase I: EC1 (olor o sabor) —— EI (malestar inducido por
litio)
ii. Fase II: EC1 + EC2 —— EI
iii. Resultado esperable según modelo: efecto de bloqueo: el
EC2 no se condiciona.
iv. Resultado observado: El estímulo previamente
condicionado (EC1) aumenta el condicionamiento del EC2

FACTORES TEMPORALES Y RESPUESTA CONDICIONADA

1. La respuesta condicionada es inversamente proporcional al intervalo EC-EI o


duración del EC.
2. Mayor respuesta condicionada cuando se utilizan procedimientos en los que los
ensayos están más separados entre sí.
3. El intervalo entre ensayos y la duración del EC interactúan a la hora de
determinar la respuesta.
• Lo que importa es la duración relativa de estas dos variables
temporales, más que el valor absoluto de cada una de ellas aislada
• Experimento de Holland (2000):
• Sujetos: ratas de laboratorio.
• EC: ruido blanco.
• EI: comida
• RC (variables dependiente): % de tiempo en el comedero.
• Varios grupos:
1. Duración del EC (DE): 10 segundos ó 20 segundos.
2. Intervalo entre ensayos (IEE): Seis valores situados en un
rango de entre 15 y 960 segundos.
• La medida importante es la razón IEE/DE
1. Razón IEE/DE: 1,5 (10 segundos de DE y 15 de IEE / 20
segundos de DE y 30 de IEE)
2. Razón IEE/DE: 3,0
3. Razón IEE/DE: 6,0
4. Razón IEE/DE: 12,0
5. Razón IEE/DE: 24,0
6. Razón IEE/DE: 48,0
50

40

30
• La respuesta condicionada es directamente
20 proporcional a la razón IEE/DE
10 • No importa la duración del EC, ni tampoco el
intervalo entre ensayos, sino solo su relación.
0
1 2 3 4 5 6
-10

-20
36
DE = 10 s DE = 20 s
Hipótesis del tiempo de espera relativo:
• Supone que un EC proporciona información acerca de la aparición del EI
solo si el sujeto tiene que pasar menos tiempo esperando al EI tras la
aparición del EC que cuando está.
• IEE/DE alto: tiempo de espera ante el EC menor al tiempo de espera en
contexto: mucho condicionamientsimplemente expuesto al contexto
experimental.
• IEE/DE bajo: tiempo de espera ante el EC similar al tiempo de
espera en contexto: poco condicionamientoo.

37
1.INTRODUCCIÓN E HISTORIA DEL CONDICIONAMIENTO INSTRUMENTAL
2. APROXIMACIONES MODERNAS AL ESTUDIO DEL CI
3. PROCEDIMEINTOS DE CONDICIONAMIENTO INSTRUMENTAL
4. ELEMENTOS FUNDAMENTALES DEL CI
5. INDEFENSIÓN APRENDIDA
6. PROGRAMAS DE REFORZAMIENTO. RAZON E INTERVALOS
7. PROGRAMAS DE REFORZAMIENTO DE TASA DE RESPUESTA
8. CONDUCTA DE ELECCIÓN: PROGRAMAS CONCURRENTES
9. ELECCIÓN CON COMPROMISO: PROGRAMA CONCURRENTE ENCADENADO
10. FUNCIÓN DESCONTADORA DEL VALOR DEL REFUERZO
11. TEORÍAS DEL REFORZAMIENTO

1. INTRODUCCIÓN E HISTORIA DEL CONDICCIONAMIENTO INSTRUMENTAL

INTRODUCCIÓN AL CONDICIONAMIENTO INSTRUMENTAL (CI)


• Estudios sobre habituación, sensibilización y condicionamiento clásico
—— conducta elicitada
• El individuo no tiene control sobre los estímulos a los que se
expone.
• Condicionamiento instrumental: situaciones de aprendizaje donde los
EE a los que se expone un organismo son resultado directo de su
conducta.
• Esta conducta se describe como dirigida a una meta.
• La conducta cuya función es la de producir ciertas consecuencias se
denomina conducta instrumental

PRIMERAS INVESTIGACIONES SOBRE EL CI


• Trabajo de Thorndike (1891, 1911) sobre inteligencia animal:
• Importancia de la investigación empírica.
• Situación experimental: cajas problemas.
• Resultados: la latencia de escape de la caja disminuía con los
ensayos sucesivos.
• Interpretación de los resultados: aprendizaje E-R (no
inteligencia)
• Formulación de la ley del efecto:
• Una respuesta seguida de un suceso satisfactorio ——
fortalecimiento asociación E-R
• Una respuesta seguida de un suceso aversivo ——
debilitamiento asociación E-R

38
2. APROXIMACIONES MODERNAS AL ESTUDIO DEL CI

PROCEDIMIENTOS DE ENSAYO DISCRETO


• Similares al método utilizado por Thorndike con sus caja problema
• Cada ensayo de entrenamiento acaba con la retirada del animal del
aparato.
• La respuesta instrumental se realiza solo una vez durante cada
ensayo.
• Ejemplos: laberintos, cajas problema,
• Medidas típicas en procedimientos de ensayo discreto:
• Latencia de la respuesta
• Velocidad de la carrera

PROCEDIMIENTO DE OPERANTE LIBRE


• Ideado por Skinner (1938)
• Permiten al animal que repita la respuesta instrumental una y otra vez
sin restricciones
• Concepto de operante: unidades de conducta medibles con significado.
• Uso de las famosas “cajas de Skinner”***
• Medida típica en procedimiento de operante libre
• Tasa de respuesta (frecuencia de la respuesta por minuto, por
ejemplo).

CAJA DE SKINNER

• La caja es una pequeña cámara que


contiene una palanca que la rata puede
empujar hacia abajo repetidamente.
• La cámara también consta de un mecanismo
que puede proporcionar un reforzador,
como comida o agua.
• Así mismo, hay otros elementos
importantes como altavoces, luces, suelo
con la capacidad de electrificarse, etc.

• Una respuesta operante (presionar la


palanca) se define a partir del efecto que
produce en el ambiente.
• Lo importante es la función de la
conducta, no la conducta en sí.
• Función de la conducta:
concepto clave en psicología.

39
ENTRENAMIENTO Y MOLDEAMIENTO AL COMEDERO
• Conducta de presionar la palanca poco frecuente para las ratas.
• Necesidad de un entrenamiento:
i. Condicionamiento clásico (entrenamiento al comedero):
• EC: luz o sonido.
• EI: comida.
• Respuesta: seguimiento del signo (la rata se acerca al
comedero).
ii. Fase de moldeamiento:
• Refuerzo de conductas que se ”acercan” a la conducta
objetivo (presionar la palanca)
• C1 —— C2 —— C3 —— CO
• Fase de reforzamiento de aproximaciones
sucesivas
• Una vez instaurada la conducta “puente” (C1, C2, C3,…), se
deja de reforzar esa conducta.
• Efecto de aumento en la frecuencia y cambio en
la topografía.
• Refuerzo de la siguiente conducta puente
• Fase de extinción
• Se repite el procedimiento hasta llegar a la conducta
objetivo.
• El moldeamiento puede producir nuevas formas de respuesta.

3. PROCEDIMIENTOS DE CONDICIONAMIENTO INSTRUMENTAL

40
4. ELEMENTOS FUNDAMENTALES DEL CI

• Elementos fundamentales: EE — (R — Er)


• La respuesta instrumental
1. La respuesta instrumental puede ser:
• Respuestas estereotipadas, específica, secuencias de respuestas,
etc.
• Aprendizaje de una respuesta específica para obtener un
reforzador.
• Respuestas variables (variabilidad de la respuesta)
• Para obtener un reforzador se requiere hacer algo nuevo.
2. Relevancia o pertinencia de la RI
• En las cajas problema de Thorndike con gatos:
• Buen condicionamiento de las RI de manipular objetos.
• Mal condicionamiento de otras RI como rascarse o
bostezar.
• No se bosteza, se abre la boca / No hay rascado,
solo contacto.
• Concepto de pertinencia para explicar el fallo del rascado y
bostezo
• Las RR que se corresponden de forma natural con el
reforzador son más “condicionables”
• Breland y Breland (1961)
• Enseñar a mapaches a coger una moneda y meterla en
una caja.
• Los mapaches exhibían otras conductas (frotar la
moneda, empujarla, sujetarla) no reforzadas que
interferían en la conducta reforzada
• Concepto de deriva instintiva: desarrollo de conductas
no reforzadas por corresponder de forma natural con el
reforzador.

3. Sistemas de conducta y limitaciones en el CI


• Teoría de los sistemas de conducta (Timberlake, 1983, 2001;
Timberlake y Lucas, 1989).
• Experimento: Shettleworth (1975)
• Sujetos: hámster.
• Método: privación de comida.
a. Se disminuye la probabilidad de respuestas de
autocuidado
b. Aumenta la probabilidad de actividades dirigidas
al ambiente (cavar, rascar una pared, etc.).
• Los refuerzos con comida pueden aumentar las
conductas (b), pero no las conductas (a).

41
• La teoría de los sistemas de conducta afirma que, en función del
tipo de reforzador, se activan unos sistemas de conducta y no
otros.
• La teoría de los sistemas de conducta explican la deriva
instintiva.

• El reforzador instrumental:
1. Cantidad y naturaleza del reforzador. Experimento de Hutt (1954)
• Objetivo: aislar los efectos de la cantidad y naturaleza de un
reforzador.
• Sujetos: ratas.
• RI: presionar una palanca.
• Er: Dos cambios en sus propiedades:
i. Cantidad: pequeña / mediana /grande
ii. Calidad: ácido / normal / dulce

Cantidad y naturaleza de la recompensa


RESPUESTAS POR MINUTO

70
60
50 Cuantas más cantidad y más
40 calidad tenían los
30 reforzadores más respuesta
20
instrumental se producía
10
0
Ácido Normal Dulce

Pequeña Mediana Grande

2. Cambios en la naturaleza y la cantidad del reforzador


• ¿Qué pasa si la cantidad o naturaleza del Er se modificara con el
tiempo?
• ¿Si se hace mayor? ¿Si se hace menor?
• Experimento de Mellgren (1972):
• Sujetos: ratas distribuidas en 4 grupos (PP, PG, GP y GG)
• P: refuerzo pequeño (2 bolitas de comida) // G:
refuerzo grande (22 bolitas de comida).
• Variable dependientes: Velocidad de carrera.
• Procedimiento: En el ensayo 11 se modifica el
entrenamiento en PG y GP. PP y GG siguen igual.
• Resultados**
0,9 • Contraste positivo: elevada
0,8 respuesta por una recompensa
0,7 favorable resultado de una
0,6 experiencia anterior con una
0,5 consecuencia menos atractiva.
0,4 • Contraste negativo: respuesta
0,3 disminuida por una recompensa
0,2 desfavorable debido a una
0,1
experiencia anterior con una
0
consecuencia mejor. 42
Pre Uno Dos Tres Cuatro
• La relación respuesta—reforzador
• Dos tipos de relaciones entre una respuesta y un reforzador:
i. Relación temporal: tiempo entre la respuesta y el reforzador
• Contigüidad temporal: entrega del reforzador
inmediatamente después de la respuesta
ii. Relación causal: es la emisión de la respuesta lo que provoca la
entrega del reforzador
• Contingencia respuesta-reforzador

¿Es más importante la contigüidad temporal o la contingencia respuesta-reforzador?

• Efectos de la contigüidad temporal


• El reforzamiento inmediato es preferible al demorado (McDevitt y
Williams, 2001).
• El CI es posible con demoras de hasta 30 segundos.
• Efectos del reforzamiento demorado en el aprendizaje de apretar una
palanca:

20 ¿Por qué el CI es tan sensible a la


demora del reforzamiento?
PRESIONES DE
PALANCA POR

15 • El sujeto no deja de emitir


MINUTO

respuestas.
10
• Tras R1 (conducta reforzada), el
5 sujeto emite R2, R3, R4,…
Si el reforzador se emite tras R6, la
0
conducta que se refuerza no es R1,
0 10 20 40 60
sino R6
DEMORA (SEGUNDOS)

• Dos formas de resolver este problema:


i. Proporcionar un reforzador secundario o condicionado inmediatamente
después de la respuesta.
• Reforzador condicionado o secundario: estímulo condicionado
que ha sido previamente asociado con el reforzador.
• Sirven para “puentear” una demora entre la RI y la entrega del
reforzador primario.
ii. Procedimiento de marcado: marcar la respuesta instrumental criterio
de alguna manera para hacerla distinguible de otras actividades del
organismo.
• Experimento de Lieberman, McIntosh y Thomas (1979).

EXPERIMENTO DE LIEBERMAN, MCINTOSH Y THOMAS (1979)

• Experimento de procedimiento de marcado


• Sujetos experimentales: ratas.
• Después de dejar la caja de salida, las ratas pueden elegir entre dos
brazos.

43
• Brazo negro: sin refuerzo.
• Brazo blanco: refuerzo demorado (60 segundos) en caja de
meta.

• Dos grupos experimentales de ratas (todas ellas del grupo reforzado) y


dos grupos control de ratas:
i. Grupo ”no marcado”: no son retirados del brazo blanco y 60’
después son llevados a la caja de meta a recibir el refuerzo.
ii. Grupo “marcado”: tras entrar en el brazo blanco, son retirados y
llevados a la caja de demora, donde esperan 60’ a recibir el
reforzador.
iii. Grupo control: en las ratas no reforzadas, también se dividen en
dos grupos (“marcado” y “no marcado”), pero nunca reciben el
reforzador.

• Variable dependiente: porcentaje de respuestas correctas


i. ¿Predicciones?

100
PORCENTAJE DE RR CORRECTAS

50

0
1 2 3 4 5
BLOQUES DE 10 ENSAYOS

No marcado Marcado

• Ratas del grupo marcado: aprendieron la respuesta instrumental con la demora en el


reforzamiento de 60 segundos mucho mejor que las ratas del grupo no marcado.
• El 90% de las veces (después de 50 ensayos) elegían el brazo correcto, frente al 50%
de las veces del grupo no marcado (porcentaje que indica una respuesta azarosa).

44
• La contingencia respuesta — reforzador:
• La entrega del reforzador es dependiente de la ocurrencia previa de la
respuesta instrumental.
• Al principio se creyó que era más importante la contigüidad temporal
que la contingencia.
• Más adelante, se ha visto que no es así…
• El experimento de superstición de Skinner:
https://www.youtube.com/watch?v=nKsXDMsPYQc

• Se entrega comida cada 15 segundos, de forma independiente a


lo que la paloma haga.
• Conducta supersticiosa: las palomas actuaban como si de su
conducta dependiera la entrega de comida.
• Según estos resultados, la contingencia respuesta — reforzador
no es necesario en el CI.
• Reinterpretaciones posteriores del experimento de superstición
desmienten esta idea.
• Experimento de Staddon y Simmelhag (1971).

EXPERIMENTO DE STADDON Y SHIMMELHAG

• Experimento de superstición de Skinner.


• Mediciones sistemáticas de muchas conductas.
• R1: orientación hacia la pared del comedero
• R3: picoteo en algún lugar del suelo
• R4: un cuarto de vuelta
• R7: picoteo en algún lugar de la pared del dispensador
• R8: moverse a lo largo de la pared del dispensador
• Algunas respuestas (R1 y R7) eran más probables al final del intervalo comida-
comida.
• Estas respuestas son denominadas respuestas terminales.
• Son respuestas típicas de las conductas consumatorias, más probables
cuando la comida está cerca
• Otras respuestas (R8 y R4) aumenta su frecuencia tras la entrega de comida y
disminuyen a medida que el tiempo de la próxima comida se hace más
inmediato
• Estas respuestas son denominadas respuestas de interín.
• Son respuestas típicas de conductas de búsqueda, más probables
cuando la comida no está cerca
• Por tanto, la interpretación de Skinner no era cierta.
• Las conductas de las palomas no estaban siendo reforzadas por CI.
• Las conductas de la palomas estaban sujetas a un CC, donde el paso del
tiempo actúa como EC.

45
• La contingencia respuesta — reforzador:
• El estudio de la importancia de la contingencia respuesta — reforzador
se ha realizado principalmente siguiendo el paradigma de la indefensión
aprendida.
• Seligman, Overmier y Maier investigaron los efectos de la exposición a
una descarga incontrolable en el aprendizaje posterior de escape-
evitación en perros.
El hallazgo más relevante fue que la exposición a una descarga
incontrolable dificultaba el aprendizaje posterior.
• Estudios de indefensión aprendida:
I. El diseño triádico
II. La hipótesis de la indefensión aprendida
III. Déficit de actividad
IV. Déficit atencional
V. Relaciones estimulares en el condicionamiento de escape

5. INDEFENSIÓN APRENDIDA

• El diseño triádico:
• Incluye dos fases:
i. Fase de exposición
• Grupo E (escape): ratas expuestas a una descarga a la que
pueden escapar emitiendo una respuesta (girar una pequeña
rueda).
• Grupo A (acoplado): cada rata de este grupo es acoplada a una
rata del grupo E y recibe las mismas descargas que ella.
• Grupo C (confinado): no recibe descargas durante esta fase, pero
esta confinado en el aparato el mismo tiempo que las demás.
ii. Fase de condicionamiento
• Los tres grupos reciben un entrenamiento de escape – evitación.
• Consiste en que las ratas vayan de un lado al otro en una
caja lanzadera y así evitar una descarga.
• Resultado:
i. Los grupos E y C aprenden rápido en el entrenamiento de escape a
evitar la descarga.
ii. El grupo A no aprende a evitar la descarga.
• La exposición a una descarga incontrolable produce una severa
interrupción del aprendizaje posterior de escape – evitación.
• Estos resultados; las diferencias en la tasa de aprendizaje entre estos dos
grupos, muestra que los animales son sensibles a la contingencia respuesta –
reforzador.

46
• La hipótesis de la indefensión aprendida:
• Exposición a descargas incontrolables —— aprendizaje de que los
reforzadores son independientes de las conducta propia.
• Déficit de aprendizaje producido por dos razones:
i. Expectativa de falta de control —— reducción de motivación
para realizar RI’s
ii. Si se emiten RI, el aprendizaje previo dificulta el aprendizaje
posterior.
• Hipótesis del déficit de actividad
• Descarga inescapable produce una disminución en el movimiento motor
i. Esto provoca los posteriores déficits de actuación
ii. Hipótesis del déficit atencional
• Descarga inescapable provoca un déficit atencional hacia las propias
acciones
i. Dificultades para asociar las acciones propias con los
reforzadores contingentes a ella.
• Experimento de Maier, Jackson y Tomie (1987).

EXPERIMENTO DE MAIER, JACKSON Y TOMIE (1987)

• Hipótesis: similitud entre la falta de atención y reforzamiento demorado


• En ambos casos no se sabe qué conducta es contingente con la entrega
del reforzador.
• El procedimiento de marcado en el grupo A inhibiría los efectos de la
indefensión aprendida.
• Sujetos experimentales: ratas
• Diseño triádico (grupo E, A y C + grupo A-M (acoplado - marcado).
• Grupo A – M:
• Fase de exposición: recibe las mismas descargas que el grupo A.
• Fase de condicionamiento: recibe un estímulo de marcado
(apagar las luces y tener el suelo inclinado) después de cada
respuesta de escape
40
LATENCIA MEDIA (SEGUNDOS)

30

20

10

0
1 2 3 4 5
BLOQUE DE 5 ENSAYOS

E A A-M C

• La presencia de este marcador eliminó completamente el déficit de aprendizaje


que de otra manera se hubiese producido por la exposición previa a la descarga
inescapable
• Este resultado sugiere que una de las fuentes del déficit de aprendizaje es una
reducción de la atención a las respuestas que el animal realiza

47
• Relaciones estimulares en el condicionamiento de escape:
• Rasgo definitorio de la conducta de escape — la RI tiene como
consecuencia la terminación del E aversivo.
• Otras relaciones estimulares:
• Claves de retroalimentación de la terminación de la descarga:
estímulos que se experimentan al inicio de la respuesta de
escape, antes de que la descarga haya desaparecido.
• Claves de retroalimentación de la señal de seguridad: estímulos
que se experimenta cuando la descarga ha desaparecido
• Esta clave va seguida de una período de seguridad
• Son inhibidores condicionados del miedo.
• Estas señales de seguridad no existen para el grupo A
porque, para ellos, los períodos de descarga y no
descarga no son predecibles.

6. PROGRAMAS DE REFORZAMIENTO

• Programa de reforzamiento: regla que determina la forma en que se


relacionan las presentaciones del reforzador con las ocurrencias de la respuesta
instrumental
• Programa simple de reforzamiento: un solo factor determina qué ocurrencia de
la respuesta instrumental se refuerza. Dos tipos:
• Programas de razón: el reforzamiento depende solo del número de
respuestas que el organismo realiza.
• Programas de razón fija (RF)
• Programas de razón variable (RV)
• Programas de intervalo: el reforzamiento depende de la cantidad de
tiempo transcurrido desde el último reforzamiento
• Programas de intervalo fijo (IF)
• Programas de intervalo variable (IV)

PROGRAMAS DE RAZÓN

• Razón fija:
• El reforzamiento se obtiene tras un número de fijo de respuestas
emitidas.

48
• RF 10: diez respuestas para obtener el reforzador.
• Tasa constante y alta una vez que la conducta se ha iniciado.
• Tiempo antes de comenzar el número requerido de respuestas.
• Pausa postreforzamiento: se deja de responder un tiempo después del
reforzamiento.
• Cuanto mayor es el requerimiento conductual, mayor es la pausa
postreforzamiento.
• Tensión de la razón: cuando el requerimiento de la razón sufre un
incremento súbito y significativo se produce una pausa periódica cada
vez que se completa la razón requerida.
• En caso extremos, la tensión de la razón es tan intensa que el
animal deja de responder.
• Caso particular: RF 1: reforzamiento continuo.
• Razón variable:
• El reforzamiento se obtiene tras un número variable de respuestas
emitidas
• RV 10: con un promedio de diez respuestas se obtiene el
reforzador
• Cada cien respuestas se obtendrán diez reforzadores,
pero no se puede saber en qué puntos concretos
ocurrirá.
• Tasa constante, alta y con pocas pausas postreforzamiento o muy
cortas.
• Tasa global de respuesta similar a los programas RF.

PROGRAMAS DE INTERVALO

• Intervalo fijo:
• El refuerzo se obtiene cuando la conducta se emite pasado cierta
cantidad de tiempo.
• IF 1’: se refuerza la primera conducta emitida tras un minuto
desde la última entrega del reforzador.
• Patrón de respuesta: festón del intervalo fijo.
• Tras la entrega del reforzador, pausa larga.
• Conforme se acerca el momento en el que el reforzador vuelve a
estar disponible, aumento intenso de las respuestas.
• El intervalo determina solo cuándo el reforzador está disponible, no
cuándo se entrega.
• Intervalo variable:
• El refuerzo se obtiene cuando la conducta se emite pasada cierta
cantidad variable de tiempo.
• IV 1’: se refuerza la primera conducta emitida tras, en promedio,
un minuto desde la última entrega del reforzador.
• En un experimento de 5 minutos, se entregarán 5
reforzadores, pero no sabemos en qué momento preciso
se entregarán.

49
• Estos programas mantienen tasas de respuesta constantes y estables sin
pausas regulares.
• Programa de intervalo con margen limitado:
• Similares a los programas de intervalo, pero el sujeto tiene un tiempo
limitado para emitir la respuesta si quiere obtener el reforzador.

COMPARACIÓN DE LOS PROGRAMAS DE RAZÓN E INTERVALO

• Semejanzas:
• RF y IF: pausa postreforzamiento.
• RF y IF: tasas altas de respuesta justo antes de la administración del
reforzador.
• RV y IV: tasas altas de respuesta sin pausas predecibles.

• Diferencias:
• Los programas de intervalo están mediados por el
sentido temporal del organismo.
• Diferencias fundamentales: experimento de Reynolds
(1975):
• Comparación de un programa de RV y IV en
palomas.
• Mismas oportunidades de reforzamiento
• Los refuerzos de IV estaban sujetos al
programa de RV
• El programa de RV motiva una conducta
instrumental mucho más vigorosa que el IV.

• Reforzamiento diferencial del tiempo interrespuesta (TIR)


• ¿Por qué los programas de razón son capaces de producir tasas de
respuesta más altas que los programas de intervalo?
• Factor crítico: tiempo interrespuesta (espaciamiento entre
respuestas dado antes del reforzamiento)
• Si reforzamos TIR cortos —— realización de TIR cortos —
— alta tasa de respuestas
• Si reforzamos TIR largos —— realización de TIR largos —
— baja tasa de respuestas

• Los programas de razón favorecen TIR cortos


¿?

• Los programas de intervalo favorecen TIR largos

¿?

50
7. PROGRAMAS DE REFORZAMIENTO DE TASAS DE RESPUESTA

• Programas de tasas de respuesta:


• La CI está sujeta a una tasa concreta de respuestas.
• Dos tipos:
• Reforzamiento diferencial de tasas altas (RDA)
• Una respuesta se refuerza si ocurre antes de que haya
transcurrido cierta cantidad de tiempo tras la respuesta
precedente.
• Reforzamiento diferencial de tasas bajas (RDB)
• Una respuesta se refuerza si ocurre después de que haya
transcurrido cierta cantidad de tiempo tras la respuesta
precedente.

8. CONDUCTA DE ELECCIÓN: PROGRAMAS CONCURRENTES

• Organismos en continua elección


• Elegimos entre diferentes programas de reforzamiento.
• La elección más simple se produce entre dos respuestas alternativas,
cada una de las cuales sujeta a su propia programa de reforzamiento.
• Programas concurrentes:
• Procedimiento típico para estudiar la conducta de elección.
• Una caja de Skinner equipadas con dos manipulandos (p. ej.: teclas).
• Cada manipulando está sujeto a un programa de reforzamiento
diferente.
• El sujeto es libre para cambiar de un manipulando a otro
• Medida de la conducta de elección:
• Cálculo de la tasa relativa de respuestas de cada alternativa.

RA/(RA + RB)

RA: tasa de respuesta en la tecla A


RB: tasa de respuesta en la tecla B
Si se picotea de igual forma en ambas teclas, la tasa relativa será 0,5.
Si la tasa es mayor en la tecla A, la tasa relativa será mayor de 0,5Si la
tasa es mayor en la tecla B, la tasa relativa será menor de 0,5.

• Cálculo de la tasa relativa de reforzamiento para cada alternativa de


respuesta.

rA/(rA + rB)

• La ley de la igualación:
• Hernstein (1961): estudio de la distribución de las respuestas en varios
programas concurrentes IV-IV en los cuales la tasa máxima de
reforzamiento estaba fijada en 40 por hora.

51
• Por ejemplo: IV 6min y IV 2 min.
• Con el IV 2 min se pueden obtener 30 reforzadores en
una hora
• Con el IV 6 min se pueden obtener 10 reforzadores en
una hora
• Resultados: las palomas distribuían sus respuestas de forma que
la tasa relativa de respuesta en una alternativa estuviera
siempre cerca de igualar la tasa relativa de reforzamiento
logrado en esa alternativa
• Por tanto, la tasa relativa de respuestas en una
alternativa se iguala con la tasa relativa de reforzamiento
en esa alternativa.

RA/(RA + RB) = rA/(rA + rB)


RA/RB = rA/rB

Las tasas relativas de respuesta se igualan con las tasas


relativas de reforzamiento

• Baum (1974) corrige la ley de la igualación

RA/RB = b(rA/rB)s
s = sensibilidad
b = sesgo

• Infraigulación: sensibilidad menor de la predicha por una igualación


perfecta a la tasa relativa de reforzamiento.
• Ocurre cuando s es menor que 1 en la fórmula de Baum.
• Si s < 1 —— rA/rB tiene un valor menor.
• La sensibilidad a la tasa relativa de reforzamiento se ve
reducida.
• Supraigualación: sensibilidad mayor de la predicha por una igualación
perfecta a la tasa relativa de reforzamiento.
• Ocurre cuando s es mayor que 1 en la fórmula de Baum
• Si s > 1 —— rA/rB tiene un valor mayor.
• La sensibilidad a la tasa relativa de reforzamiento se ve
incrementada.
• Determinantes de la sensibilidad:
• Especie animal, esfuerzo o dificultad incluida en el cambio de
una alternativa a otra, etc.
• Es más sencillo lograr una sensibilidad reducida a las tasas
relativas de reforzamiento
• Es más frecuente la infraigulación que la supraigualación.
• Sesgo de respuesta (b)
• Alternativas de respuesta diferentes.
• Reforzadores diferentes en las dos elecciones.

52
• Cantidad, palatabilidad y demora influyen en la saliencia
del reforzador.
• En ausencia de sesgos b = 1.

9. ELECCIÓN CON COMPROMISO PROGRAMA CONCURRENTE ENCADENADO

• Programa concurrente encadenado:


• ¿Preferimos un programa de RV frente a uno de RF o viceversa?
• Técnica básica de estudio: programa concurrente encadenado
• Dos fases:
i. Eslabón de elección: se elige uno de los dos programas
(e.g.: RV 10 frente a RF 10), pero no aún no hay ningún
tipo de reforzamiento.
ii. Eslabón terminal: el sujeto se compromete con la
elección elegida (sin poder cambiar) durante un
determinado intervalo de tiempo (elección con
compromiso).
• Resultados: indican que los sujetos prefieren RV frente a RF
Esto ocurre así incluso cuando RV > RF.

• El problema del autocontrol:


• ¿Preferimos una recompensa grande y demorada o una recompensa
pequeña pero inmediata?
• Utilización de los programas concurrentes encadenados.
• Eslabón terminal: (a) recompensa pequeña e inmediata; (b)
recompensa grande y demorada.
• Estudio de Rachlin y Green (1972): estudio de la conducta de elección
en dos circunstancias diferentes:
• Procedimiento de elección directa:
• Recompensa pequeña inmediata y recompensa grande
demorada disponibles tras “pasar” el eslabón de
elección.
• Aquí las palomas eligen la recompensa pequeña
inmediata
• Procedimiento concurrente encadenado
• Componentes terminales del programa concurrente
demorados después de “pasar” es eslabón de elección.
• Aquí, con demoras suficientemente grandes, sí se
muestra autocontrol (las palomas eligen la recompensa
grande demorada).
• Explicación del efecto: el valor de un reforzador se reduce en función
de cuánto tiempo se tiene que esperar para obtenerlo según la
siguiente fórmula: V = M/(1+KD)

53
• V: valor del reforzador / M: magnitud del reforzador / K:
parámetro de la tasa descontadora / D: demora en la
recompensa.
• Aplicación al tema del autocontrol:

10. FUNCIÓN DESCONTADORA DEL VALOR DEL REFUERZO

Representación hipotética del valor de dos


refuerzos que difieren en magnitud y en
demora. El valor de un refuerzo depende de la
longitud de su demora. En el momento T1, el
refuerzo pequeño inmediato tiene más valor
que el refuerzo grande demorado. En este
caso el sujeto elegirá el refuerzo pequeño
inmediato. En el momento T2, el refuerzo
grande demorado tiene más valor que el
refuerzo pequeño demorado. En este caso el
sujeto elegirá el refuerzo grande demorado

11. TEORÍAS DEL REFORZAMIENTO

• Ley del efecto de Thorndike:


• El reforzador crea un estado de satisfacción que sella la relación E-R.
• Según Thorndike lo que refuerza es el estado de satisfacción que el
reforzador produce en el organismo.

• Teoría de la reducción del impulso:


• Hull (1943): un refuerzo es cualquier estímulo que reduce una
necesidad biológica del organismo.
• Lo que motiva al animal a responder es reducir el impulso y recuperar la
homeostasis fisiológica.
• Dificultades de la teoría:
• Ciertos EE actúan como reforzadores sin reducir ninguna
necesidad biológica.
• Experimento de Miler y Kessen (1952):
• Laberinto en T y leche como refuerzo.
• Leche administrada bajo 3 condiciones:
a. Por inyección directa al estómago

54
b. Por la boca de forma inmediata
c. Por la boca de forma demorada
• Los resultados indican que todos los grupos aprenden,
pero unos mejor que otros:
-El reforzamiento de tomar leche por la boca fue
más efectivo que el de inyección al estómago.
-El reforzamiento de tomar leche por la boca de
forma inmediata mejor que el demorado.

• La estimulación eléctrica cerebral reforzadora


• Olds y Mildner (1954) encuentran que la estimulación eléctrica cerebral
(EEC) de algunas zonas del cerebro (“centros del placer”) es reforzante.
• Se sugiere que la estimulación de los centros del placer puede ser el
mecanismo común de todos los reforzadores.
• El reforzamiento de la EEC se caracteriza por producir tasas de
respuesta muy altas y a lo largo de mucho tiempo.
• Valenstein y Beer (1964)
• Comida y EEC disponibles de forma continua.
• Ratas presionan palanca de forma alterna para obtener comida y
EEC.
• Routtemberg y Lindy (1965)
• Libre acceso a reforzador de comida o EEC durante solo una hora
al día.
• Algunas ratas solo obtienen EEC (incluso hasta la inanición).
• Dado que la EEC produce excitación de los centros nerviosos…
• Se postula que es el aumento de la excitación y de nivel de
arousal lo que produce el reforzamiento.

• Teoría de la respuesta consumatoria:


• Sheffield y cols. (Sheffield y Roby, 1950) proponen que los reforzadores
son tipos especiales de respuestas.
• Las respuestas consumatorias típicas de especies (respuesta de
beber, comer, masticar, etc.) son el factor más importante del
reforzamiento.
• El valor del reforzamiento está en el acto de consumir
más que en la sustancia misma.
• Teoría del reforzamiento de la inducción del impulso (Sheffield, 1954).
• El reforzamiento ocurre cuando un estímulo suscita una
respuesta consumatoria o una excitación asociada a la respuesta
consumatoria.
• Esta teoría deja sin explicar algunos resultados, como por
ejemplo el visto en el experimento de Miler y Kessen (1952).
• Cuando la comida se administra por vía intravenosa se
produce reforzamiento, pero no hay conducta
consumatoria.

55
• No obstante, el entender los reforzadores como tipos especiales
de respuestas y no como tipos especiales de estímulos abrió una
nueva forma de concebir los reforzadores.

• Teoría de Premack:
• Premack desarrolla la idea de que las respuestas pueden actuar como
reforzadores.
• Afirma que la contingencia real se produce entre dos respuestas:
por ejemplo, la presión de palanca y la oportunidad de comer.
• La presión de palanca es una respuesta instrumental
reforzada por la respuesta de comer.
• Factor fundamental para el reforzamiento: diferencia en la probabilidad
de cada una de las respuestas.
• Dos respuestas con diferente probabilidad de aparición: A y B //
PA > PB
• A actúa como reforzador de la respuesta B: principio de
Premack de la probabilidad diferencial.
• Reforzamiento si las respuestas menos probables
permiten realizar las respuestas más probables

• Estudio experimental: Premack, 1962:


• Hipótesis: las conductas de beber y de correr pueden ser revertidas en
una situación de CI.
• Las respuestas más frecuentes pueden reforzar a las menos
frecuentes.
• Línea base:
• En una situación normal, el animal tiene que correr (R) para
poder beber (C)
• Primera fase:
I. 10 ratas (grupo A) son privadas de agua durante 23
horas al día, al tiempo que pueden correr todo el tiempo
que quieran (situación clásica de CI)
• Durante la hora restante, las ratas pueden correr
y beber libremente.
• Resultado: las ratas beben más tiempo del que
corren (durante esa hora).
II. 10 ratas (grupo B) son privadas de correr durante 23
horas al día, al tiempo que pueden beber todo el tiempo
que quieran.
• Durante la hora restante, las ratas pueden correr
y beber libremente.
• Resultado: las ratas corren más tiempo del que
beben (durante esa hora).
• Segunda fase:

56
• Hacemos contingente la conducta de correr con la
conducta de beber (en el grupo B).
• Para poder correr, las ratas tienen que beber: 6
lameteos —— 10’ en la rueda de actividad
• En la línea base (previo al establecimiento de la
contingencia), las ratas bebían durante 23’’
• Resultados: tras la contingencia el tiempo de
beber aumentó a 98’’
• Conclusión: la respuesta más frecuente (correr)
refuerza la respuesta menos frecuente (beber)

• Estudio experimental: Premack, 1959:


• Hipótesis: cualquier respuesta puede actuar como reforzador aunque
no tenga relación con ningún reforzador primario convencional (comida,
agua, etc.).
• Sujeto experimental: mono.
• Situación experimental:
i. Libre acceso a una palanca que puede presionar o a una puerta
que puede abrir.
ii. Primera fase —— 90 minutos en el recinto —— 90 veces abre la
puerta ——36 veces presiona palanca.
iii. Segunda fase —— contingencia entre abrir la puerta y presionar
la palanca —— se tiene que presionar la palanca para poder
abrir la puerta.
• Resultado: la presión de la palanca aumenta hasta las
120 respuestas.
• En el grupo control, el animal tenía que abrir la puerta
para poder presionar la palanca
• En este grupo, el animal no abrió la puerta más
veces que en la línea base.
iv. Conclusión: una respuesta solo puede actuar como reforzador si
es más frecuenta que otra.

• Teoría de la privación de respuesta:


• Según Allison (1993), el factor clave del reforzamiento instrumental es
la restricción de la respuesta reforzadora.
• Evidencia empírica:
• Una respuesta de baja probabilidad puede reforzar una
respuesta de alta probabilidad si el reforzamiento de la
respuesta fue restringido por debajo de su línea base.
• Resultado que cuestiona el principio de Premack.
• Lo más importante entonces para motivar la respuesta instrumental es
la privación de la respuesta y no la probabilidad diferencial de las
respuestas.

57
• Teoría de la regulación conductual
• Supuesto básico: cuando los organismos son libres de elegir entre varias
alternativas de respuesta, distribuyen sus actividades de la forma más
óptima posible.
• La mejor forma de distribución de las respuestas es el punto de
deleite conductual.
• Cuando se impide a un organismo realizar una determinada respuesta
por debajo de su línea base de actuación, este hará todo lo posible por
realizar cualquier otra respuesta que le permita acercarse al punto de
deleite conductual.
• Si introducimos una contingencia respuesta-reforzador, el
organismo cambiará su actividad y hará todo lo posible por
reestablecerla.
• En este caso el reforzador actuará como regular
conductual.
• Ejemplo del joven que tiene que elegir entre jugar al ordenador y
ponerse a estudiar.

58
1.IDENTIFICACIÓN Y MEDIDA DEL CONTROL POR EL ESTÍMULO
2. FACTORES DEL ESTÍMULO Y LA RESPUESTA EN EL CONTROL POR EL ESTÍMULO
3. FACTORES DE APRENDIZAJE EN EL CONTROL POR EL ESTÍMULO
4. ¿QUÉ SE APRENDE EN LE ENTRENAMIENTO EN DISCRIMINACIÓN?
5. INTERACCIONES ENTRE EL E+ Y EL E- : DESPLAZAMIENTO DEL MÁXIMO

1.IDENTIFICACIÓN Y MEDIDA DEL CONTROL POR EL ESTÍMULO

No solo es importante dar una respuesta instrumental para conseguir una


recompensa, sino saber cuándo esa recompensa está disponible en el contexto
estimular donde hay que dar la respuesta.
También es importante saber cuándo esa recompensa no está disponible.
- Ej: desvertirse, dar muestras de afecto, etc.

¿Cómo se puede afirmar que una respuesta instrumental está bajo el control de ciertos
estímulos?

RESPUESTA DIFERENCIAL Y DISCRIMINACIÓN DE ESTÍMULOS

• Experimento de Reynolds (1961): Reforzamiento de varias palomas por


picotear una tecla circular con un patrón consistente en un triángulo
blanco sobre un fondo rojo.
• ¿Cuál de estos dos componentes del estímulo (triángulo o
fondo) tiene el control sobre la conducta?
• Tras instaurar la conducta de picoteo, se presenta solo uno de
los dos elementos y se mide, de nuevo, el picoteo.

Conclusiones relevantes del estudio:


25 Forma de determinar si la conducta instrumental está
RESPUESTAS POR MINUTO

20 bajo control de un estímulo particular:


• El control por el estímulo de la
15
conducta instrumental se demuestra
10 mediante variaciones en la respuesta
5 (respuesta diferencial) relacionadas
0
con las variaciones en los estímulos.
Triángulo Fondo rojo Triángulo Fondo rojo • Si un organismo responde de una
blanco blanco manera en presencia de un estímulo, y
de forma diferente en presencia de
2 PRIMERAS BARRAS --> PALOMA 107
2 ÚLTIMAS BARRAS --> PALOMA 105 otro, se puede decir que su conducta
está bajo el control de esos estímulos.

59
• Efecto de discriminación de estímulos: cuando se responde de forma diferente
a dos o más estímulos.
• La conducta de picoteo de cada pájaro estaba controlada por un estímulo
diferente (la discriminación es específica del organismo y no universal).
• No se puede predecir qué EE adquirirán la propiedad de controlar la
conducta.

• GENERALIZACIÓN DE ESTÍMULOS:
• Los estímulos pueden definirse de formas muy distintas: función, rasgos
físicos, etc.
• Generalización y discriminación opuestos: si hay mucha generalización
hay poca discriminación y viceversa.
• Generalización: cuando se responde de forma similar a dos o más
estímulos.

• Experimento de Guttman y Kalish (1956)


350
• Programa IV: refuerzo por picotear tecla de 580 300
nm. 250
• Observación de conducta al presentar EE de RESPUESTAS 200
diferentes longitudes de onda (ausencia de 150
reforzamiento). 100
• Resultados: muestran el conocido como 50
gradiente de generalización del estímulo. 0

580 (estímulo de…


• Lo acusado del gradiente de
525
540
550
565

590
600
615
640
generalización de un estímulo proporciona
una medida precisa del grado de control
del estímulo.
• Se obtiene un gradiente de
LONGITUD DE ONDA
generalización plano si el
organismo responde de forma
similar a todos los EE de la prueba
(ningún control por el estímulo).

2.FACTORES DEL ESTÍMULO Y LA RESPUESTA EN CONTROL POR EL ESTÍMULO

¿Qué determina que una de las muchas características de una situación estimular
adquiera control sobre la conducta instrumental?
1. Capacidad sensorial y orientación: que el organismo pueda percibir el
estímulo**
2. Facilidad relativa del condicionamiento de varios estímulos.
3. Tipo de reforzamiento
4. Tipo de respuesta instrumental

60
• FACILIDAD RELATIVA DEL CONDICIONAMIENTO DE VARIOS ESTÍMULOS
• Ensombrecimiento: interferencia en el condicionamiento de un
estímulo debido a la presencia simultánea de otro estímulo que es más
fácil de condicionar
• Pavlov (1927): primero en observar que si dos estímulos se presentan al
mismo tiempo, la presencia del estímulo que se puede entrenar más
fácilmente puede “ocultar” el aprendizaje del otro.
• En general, cuanto más intenso sea el estímulo, más rápido se
condicionará y ensombrecerá el aprendizaje del estímulo más débil.

• TIPO DE REFORZAMIENTO
• Experimento de Foree y LoLordo (1973):
• Sujetos: palomas.
• Entrenamiento: presión pedal en presencia de un estímulo compuesto
por: luz roja y tono de 440 Hz
• Dos grupos.
i. Reforzamiento con comida al pulsar el pedal.
ii. Evitación de una descarga al pulsar el pedal.
• Ensayos de prueba: solo se presenta la luz o el sonido.

16 • Las palomas que fueron entrenadas con


reforzamiento de comida respondieron
MEDIDA DE RESPUESTA DE

14
12 mucho más cuando se presentó solo la luz
10 que cuando se presentó solo el tono
PRUEBA

8
6
• Las palomas que fueron entrenadas con
4 reforzamiento con evitación de una descarga
2 respondieron mucho más cuando se presentó
0 solo el tono que cuando se presentó solo la
Refozamiento con Reforzamiento con
comida evitación de una
luz.
descarga • El control por el estímulo de la conducta
instrumental está determinado en parte por
Tono Luz Tono + Luz
el tipo de reforzamiento utilizado

• TIPO DE RESPUESTA INSTRUMENTAL


• Experimento de Dobrzecka, Szwejkowska y Konorski (1966)
• Sujetos: perros atados con un arnés.
• Entrenamiento: 2 estímulos auditivos diferentes colocados: zumbador
detrás y metrónomo delante.
• Cuestión: cuál de las dos características del estímulo (naturaleza del
sonido o localización) llegaría a controlar la conducta
• 2 grupos de perros en función de la respuesta necesaria para obtener el
reforzador.

61
i. Grupo 1: entrenamiento en tarea derecha/izquierda
(importancia de la localización de la respuesta)
• Metrónomo —— levantar pierna derecha
• Zumbador —— levantar pierna izquierda
ii. Grupo 2: entrenamiento en una tarea de hacer/no hacer
(importancia de la naturaleza de la repuesta)
• Zumbador —— levantar pierna derecha
• Metrónomo —— no levantar pierna derecha
• ¿Qué aspecto de las claves auditivas —naturaleza o localización—
adquiriría control sobre la conducta instrumental en los dos grupos?
i. Prueba: Se intercambian las posiciones del metrónomo y el
zumbador (metrónomo detrás y zumbador delante) y se prueba
qué aspecto (localización o naturaleza del sonido) controla qué
conducta.
• Resultados:
• Grupo 1 (tarea derecha — izquierda): levantaron la pata derecha
en respuesta al sonido de enfrente, más que en función de si el
sonido era producido por el metrónomo o el zumbador.
• Conducta controlada de forma más intensa por la
localización que por la naturaleza de los sonidos
• Grupo 2 (tarea hacer — no hacer): levantaron una pata en
respuesta al zumbador si el sonido venía de enfrente o de detrás
y no la levantaron cuando estaba sonando el metrónomo.
• Conducta controlada por la naturaleza del sonido más que
por su localización.
• Las respuestas que se diferencian por la localización es más que
probable que lleguen a estar bajo el control de la característica
espacial de las claves auditivas.
• Las respuestas que se diferencian por la naturaleza es más
probable que lleguen a estar bajo el control de la naturaleza de
las claves auditivas

3.FACTORES DE APRENDIZAJE EN EL CONTROL POR EL ESTÍMULO

• La generalización del estímulo se refiere al hecho de que una respuesta


condicionada a un estímulo puede darse también cuando se presentan otros
estímulos similares a la clave original.
• Pavlov sugiere que la generalización del estímulo se da porque el aprendizaje
sobre el EC llega a transferirse a otros estímulos en función de la semejanza
física de esos estímulos de prueba con el EC original.
• Lashley y Wade (1946) adoptan una postura contraria:
• Argumentan que la generalización del estímulo es una prueba que
refleja la ausencia de aprendizaje.

62
• Proponen que la generalización ocurre si los organismos no han
aprendido a distinguir las diferencias entre los estímulos.

• Entrenamiento en discriminación de estímulos


• El entrenamiento en discriminación de estímulos apoya las ideas de
Lashley y Wade de que la generalización es un falla en el aprendizaje.
• Entrenamiento en discriminación:
• El sujeto aprenden qué estímulos señalan cuando está
disponible el refuerzo (estímulos discriminativos (E+)) y qué
estímulos señalan cuando no está disponible el refuerzo
(estímulos delta (E—)).
• En una prueba, durante los E+ el sujeto da respuestas y durante
los E— deja de darlas.
• Programa múltiple de reforzamiento:
• Hay diferentes programas de reforzamiento al mismo tiempo en
presencia de diferentes estímulos:
• Programa IV cuando se enciende una luz roja
• Programa RF cuando suena un tono
• Con suficiente entrenamiento, la pauta de respuesta en
presencia de cada estímulo corresponderá con el programa de
reforzamiento que funciona en presencia de ese estímulo

• Efectos del entrenamiento en discriminación sobre el control por el estímulo


• ¿Cuán preciso es el control que el E+ adquiere sobre la conducta
instrumental? ¿Qué factores determinan esta precisión del control por
el estímulo?
• Experimento clásico de Jenkins y Harrison (1960, 1962):
• Examinar cómo los estímulos auditivos que difieren en el tono
llegan a controlar la conducta de picoteo de las palomas
reforzadas con comida.
• Tres tipos de entrenamiento:
i. E+: tono de 1000 Hz // E—: ausencia de tono (GE1)
ii. E+: tono de 1000Hz // E—: tono de 950 Hz. (GE2)
iii. GC: tono constante de 1000 Hz // reforzamiento siempre
que picoteaban.
• Fase de prueba
i. Se presentan diferentes tonos y se observa cuál es la
conducta de picoteo en función del tono y del grupo.

• El grupo control responde de forma casi idéntica en


presencia de todos los EE de prueba.
• El tono de los sonidos no controla su conducta.
• El control por el estímulo más fuerte ocurre en el GE2
• Conclusiones:
• El entrenamiento en discriminación aumenta el
control por el estímulo de la conducta
instrumental
• Una dimensión particular del estímulo es más
probable que adquiera control sobre la respuesta
si el E+ y el E— difieren a lo largo de la dimensión
del estímulo.
63
• Rango posible de estímulos discriminativos
• Porter y Neuringer (1984): las palomas son capaces de discriminar la
música de Bach de la de Stravinsky y generalizar esta discriminación a
otros compositores de los mismos períodos de la historia de la música.
• Watanaber, Sakamoto y Wakita (1995): las palomas pueden discriminar
a Monet y Picasso
• Davidson, Flynn y Jarrard (1992): claves internas relacionadas con el
nivel de hambre.
• Keen y Machado (1999): frecuencia relativa de sucesos.

4.¿QUÉ SE APRENDE EN EL ENTRENAMIENTO EN DISCRIMINACIÓN?

• ¿Qué estrategias puede utilizar un sujeto para asegurar que la mayoría de sus
respuestas serán reforzadas en una situación de control por discriminación?
1. Aprender a responder en presencia del E+ y no aprender nada sobre el
E—
2. Aprender a suprimir la respuesta durante el E—, pero no aprender nada
sobre el E+
3. Aprender el significado del E+ y del E—.

• Teoría de Spence del aprendizaje de discriminación.


1. E+ con propiedades excitatorias y E— con propiedades inhibitorias.
2. Puesta a prueba de la teoría:
• Si E+ tiene propiedades excitatorias —— los EE que difieran de
forma progresiva del E+ deberán ser cada vez menos efectivos
en evocar la respuesta instrumental.
• Gradiente de generalización del estímulo excitatorio.
• Si E— tiene propiedades inhibitorias —— los EE que difieran de
forma progresiva del E— deberán ser cada vez menos efectivos
en inhibir la respuesta instrumental.
• Gradiente de generalización del estímulo inhibitorio.

3. Experimento de Honig, Boneau, Burstein y Pennypacker (1963)**

• Sujetos: palomas.
• Procedimiento (I): entrenamiento en discriminación con estímulos visuales.
• Dos grupos:
i. Grupo 1:
a. Reforzamiento —— tecla iluminada con luz blanca y línea
vertical negra (E+)
b. No reforzamiento —— tecla iluminada con luz blanca sin línea
vertical negra (E—)
ii. Grupo 2: (contrario)

64
a. Reforzamiento —— tecla iluminada con luz blanca sin línea
vertical negra (E+)
b. No reforzamiento —— tecla iluminada con luz blanca y línea
vertical negra (E—)
• Procedimiento (II): prueba de generalización variando el ángulo de la línea
vertical.

• Los resultados muestran tanto el


gradiente de generalización del estímulo
excitatorio como el inhibitorio.
• Por tanto, el entrenamiento en
discriminación puede producir tanto
condicionamiento excitatorio al E+ como
condicionamiento inhibitorio al E—.
• Estos resultados refuerzan la teoría de
Spence

5.INTERACCIONES ENTRE EL E+ Y EL E- : DESPLAZAMIENTO DEL MÁXIMO

• Lo que se aprende sobre el E+ puede influir en la respuesta al E— y viceversa.


• Interacciones más probables cuando el E+ y el E— se relacionan de
alguna manera.
• Procedimiento de discriminación intradimensional:
• Procedimientos en el que el E+ y el E— difieren solo en términos del
valor de una característica del estímulo.
• Estos procedimientos dan como resultado una interacción entre el E+ y
el E— denominada desplazamiento del máximo.
• Experimento de Hanson (1959):
• Examina los efectos de un entrenamiento en discriminación
intradimensional en el grado en que varios colores controlan la
conducta de picoteo de las palomas.
• Entrenamiento en reforzamiento: todos los sujetos reforzados por
picotear en una tecla de 550 nm (mismo E+ para todos).
• Entrenamiento en discriminación. Tres grupos:
i. E—: 590 nm.
ii. E—: 555 nm.
iii. Sin E—.

• El grupo control muestra un gradiente de generalización normal con el máximo


en los 550 nm.

65
• Los otros dos grupos desplazan el máximo hacia colores con menores
longitudes de onda (se recuerda que la respuesta nunca había sido reforzada
con picoteos ante teclas de 540 nm).
• Las tasas más altas de respuesta se dieron ante estímulos que nunca
habían sido presentados durante el entrenamiento original.

• A este efecto se le conoce como desplazamiento del


máximo.
• El desplazamiento del máximo es un resultado del
entrenamiento en discriminación intradimensional y
está en función de la semejanza del E— con el E+
utilizados en el entrenamiento en discriminación.

• Explicación de Spence: los gradientes de


generalización de la excitación y la inhibición se
superponen.
• El grado de superposición depende del grado
de semejanza entre el E+ y el E—

66
1.INTRODUCCIÓN
2. EFECTOS DE LOS PROCEDIMIENTOS DE EXTINCIÓN
3. EXTINCIÓN Y APREDIZAJE ORIGINAL
4. EFECTOS PARADOJICOS DE LA RECOMPENSA
5. EFECTOS DEL REFORZAMIENTO PARCIAL EN LA EXTINCIÓN

1.INTRODUCCIÓN

• Importancia de aprender conductas para la adaptación Vs importancia de


perder conductas condicionadas.
• La extinción implica la omisión del EI o reforzador.
• En el CC: extinción —— presentación repetidas del EC sin EI
• En el CI: extinción —— ausencia de reforzador tras la ejecución de la
respuesta instrumental.
• Resultado típico de la extinción: disminución de la respuesta (condicionada o
instrumental).
• La extinción lo opuesto a la adquisición
• Punto de vista incorrecto.
• La extinción no es lo opuesto a la adquisición, sino otro efecto de
aprendizaje.
• Implica el aprendizaje de algo nuevo que se superpone sobre lo que se
aprendió antes (sin la pérdida de lo que se aprendió anteriormente)
• La extinción es diferente al olvido.

2.EFECTOS DE LOS PROCEDIMIENTOS DE EXTINCIÓN

• Dos efectos conductuales de la extinción:


i. La respuesta disminuye cuando no vuelve a producir reforzamiento.
ii. Aumenta la variabilidad de la repuesta.
iii. Efectos emocionales de la extinción:
iv. La reacción emocional inducida por la falta de un reforzador esperado
se denomina frustración.
• En ciertas condiciones, la frustración puede ser tan intensa que
provoque reacciones agresivas (agresión frustrante),
v. Experimento de Azrin, Hutchinson y Hake (1966)
• Dos palomas en una caja de Skinner.
• La paloma 1 está sujetada con un arnés a una esquina de la caja.

67
• La paloma 2 es reforzada con comida y está centrada en su
reforzamiento, ignorando a la paloma 1.
• Cuando se aplica extinción a la paloma 2…
• …se acerca a la paloma 1 y comienza a agredirla.

3.EXTINCIÓN Y APRENDIZAJE ORIGINAL

• La extinción no revierte los efectos de la adquisición; no elimina lo que se


aprendió.
• Evidencias:
• Recuperación espontánea
• Renovación del condicionamiento excitatorio original,
• Restablecimiento de la excitación condicionada.
• Sensibilidad a la devaluación del reforzador ***

RECUPERACIÓN ESPONTANEA

Recuperación espontánea tras el condicionamiento pavloviano:


• Una de las características de la extinción es que se disipa con el tiempo.
• La consecuencia de esta pérdida del efecto de la extinción a lo largo del tiempo
es que la respuesta condicionada original vuelve a presentarse si el sujeto se
pone a prueba tras una demora que siga al procedimiento de extinción.
• Rescorla (1997):
• Paradigma experimental: ratas con aproximación al comedero (EI ——
comida).
• Entrenamiento en condicionamiento clásico (EC —— estímulo
luminoso).
• Línea base tras adquisición: 15,6 aproximaciones por minuto.
• Dos sesiones de extinción (16 ensayos cada una) seguidas de 4 ensayos
de prueba:
• Dos grupos:
i. Grupo EC — Descanso: Los ensayos de prueba se demoran 8 días
después de los de extinción
ii. Grupo EC — No descanso: Los ensayos de prueba van seguidos
de los de extinción.

• En la gráfica se aprecia que el grupo EC —


Descanso muestra en el primer ensayo de
prueba una tasa de respuesta de 6
aproximaciones por minuto, muy superior
a los casi cero que se había conseguido en
la extinción.
• Para el grupo EC — No descanso la
tasa desde el comienzo es similar a
la obtenida en la extinción.
• Esto ilustra la recuperación espontánea.
• La recuperación no fue completa (la
tasa tras el entrenamiento era de
15,6 y en la recuperación de 6). 68
Recuperación espontánea tras el condicionamiento instrumental:
• Experimento de Rescorla (1996):
• Fase de adquisición: Reforzamiento con comida en un programa IV 1’
• Tasa de respuesta tras fase de adquisición: 17 por minuto.
• Fase de extinción: 2 sesiones de 20 minutos.
• Dos grupos:
i. Grupo EC — Descanso: Los ensayos de prueba se demoran 7 días
después de los de extinción
ii. Grupo EC — No descanso: Los ensayos de prueba van seguidos
de los de extinción.

• En la gráfica se aprecia que el grupo EC —


Descanso muestra en el primer ensayo de prueba
una tasa de respuesta de 4 por minuto, muy
superior a los casi cero que se había conseguido
en la extinción.
• Para el grupo EC — No descanso la tasa
desde el comienzo es similar a la obtenida
en la extinción.
• Esto ilustra la recuperación espontánea.
• La recuperación no fue completa (la tasa
tras el entrenamiento era de 17 y en la
recuperación de 4).

RENOVACIÓN DEL CONDICIONAMIENTO EXCITATORIO ORIGINAL

• Renovación: recuperación de la ejecución propia de la adquisición al cambiar


las claves contextuales presentes durante la extinción.
• Problema para la terapia de conducta.
• Experimento de Bouton y King (1983):
• Técnica de supresión condicionada.
• Entrenamiento llevado a cabo en Contexto A.
• Fase de extinción: tres grupos:
• Ext A: 20 ensayos de extinción en contexto A.
• Ext B: 20 ensayos de extinción en contexto B.
• NE: no extinción.
i. El miedo que había sido condicionado en el
contexto A se generaliza fácilmente cuando se
ñ
presenta el tono en el contexto B.
ii. En la fase de prueba, el miedo condicionado se
renovó cuando se retiró al grupo B del contexto
de extinción y volvió al contexto del aprendizaje
original.
La pérdida de supresión evidente durante la fase de
extinción no refleja el desaprendizaje de la respuesta 69
de miedo condicionado
• El efecto de la renovación se evidencia no solo con claves externas contextuales
sino con claves contextuales creadas por estados provocados por drogas.
• La renovación se produce porque la memoria de la extinción es específica de
las claves que están presentes durante la misma.
• Un cambio en el contexto dificulta la recuperación de la memoria de
extinción
• ¿Por qué la adquisición original se ve menos afectada por un cambio en el
contexto cuando la ejecución propia de la extinción es muy específica del
contexto?
• Bouton sugiere que las claves contextuales sirven para eliminar la
ambigüedad del significado de un EC.
• EC —— condicionamiento excitatorio —— extinción ——
significado ambigüo.
• La generalización en la adquisición no necesita claves
contextuales porque no es ambigüa.
• La extinción necesita una mayor precisión, dado que un estímulo
a veces significa una cosa y otras veces significa otra cosa
diferente.

REESTABLECIMIENTO DE LA EXCITACIÓN CONDICIONADA

• El restablecimiento se refiere a la recuperación de la respuesta excitatoria a un


estímulo extinguido producida por exposiciones al estímulo incondicionado.
• Ej: paradigma de aversión al sabor
• Enfermamos tras comer pulpo a la gallega.
• Extinción: comemos muchas veces pulpo a la gallega sin
enfermar.
• Otro día enfermamos (sin haber comido pulpo a la gallega).
• Se restablece la aversión al pulpo a la gallega.

4. EFECTOS PARADÓJICOS DE LA RECOMPENSA

• Efecto del sobreentrenamiento en la extinción


• Cuando más entrenamiento con reforzamiento —— más extinción (más
rápida)
• Más entrenamiento con reforzamiento —— mayores niveles de
frustración en la extinción.
• Efecto de la magnitud del reforzamiento en la extinción
• Cuanto mayor es el reforzador —— mayor es la extinción
• Efecto del reforzamiento parcial en la extinción
• Extinción más rápida si programas de reforzamiento continuos o fijos
• Extinción más lenta si programas de reforzamiento parciales o variables.
• El reforzamiento parcial favorece la persistencia de dos formas
diferentes:
i. Teoría de la frustración.

70
ii. Teoría secuencial.
• (los mecanismos propuestos por ambas teorías
contribuyen a la persistencia de la respuesta)

5. EFECTOS DEL REFORZAMIENTO PARCIAL EN LA EXTINCIÓN

Teoría de la frustración:
• Asume que el reforzamiento intermitente da como resultado aprender a
responder a pesar de esperar la ausencia de reforzamiento.
• Al principio del entrenamiento, los sujetos entrenados con reforzamiento
intermitente están en conflicto con lo que se ha de hacer.
• Sus expectativas motivan tendencias de respuesta opuestas.
• A medida que el entrenamiento continua, el conflicto se resuelve a
favor de responder.
• La respuesta instrumental se condiciona a la expectativa de la ausencia de
recompensa.
• Clave de la teoría: el reforzamiento intermitente da como resultado el
aprendizaje de realizar la respuesta instrumental como reacción a la
expectativa de ausencia de recompensa.
• Por el contrario, no existe nada en la experiencia del reforzamiento
continuo que motive a los sujetos a responder cuando esperan ausencia
de recompensa.

Teoría secuencial:
• Propuesta por Capaldi y formulada en términos de conceptos de memoria.
• Asume que los sujetos pueden recordar si fueron reforzados por realizar la
respuesta instrumental en el pasado reciente.
• Asume además que durante el entrenamiento en reforzamiento intermitente,
la memoria de ausencia de recompensa llega a ser una clave para la realización
de la respuesta instrumental, lo que produce persistencia en la extinción.
• La forma exacta en la que esto ocurre depende en gran medida de la
secuencia de ensayos recompensados (R) y no recompensados (N) que
se administran en el programa de reforzamiento intermitente.
• Por ejemplo: RNNRRNR
• En el cuarto ensayo, el sujeto es reforzado tras no recibir
recompensa en los dos ensayos precedentes.
La memoria de los ensayos no recompensados llega a ser una clave para la respuesta

71
1. INTRODUCCIÓN
2. DISTINCIÓN ENTRE REFUERZO NEGATIO, CASTIGO Y
EXTINCIÓN
3. METODOLOGÍA EXPERIMENTAL
4. CONDICIONAMIENTOS DE ESCAPE
5. CONDICIONAMIENTO DE EVITACIÓN
6. EL CASTIGO

1.INTRODUCCIÓN

• El repertorio conductual de los organismos está controlado tanto por los


sucesos apetitivos como por los sucesos aversivos.
• De cara a la supervivencia, resulta ventajoso a los organismos aprender a
escapar y a evitar los predadores como medio de defensa.
• Esto es el aprendizaje de escape o de evitación.
• En estos casos, se produce un incremento de la conducta (es reforzada)
que sirve para escapar o evitar
• Hay otras situaciones en las que la conducta va seguida de un estímulo
aversivo.
• Es el caso del castigo (positivo).
• El efecto del castigo es que se reduce la frecuencia de la conducta
contingente a él.

2. DISTINCIÓN ENTRE ENTRE REFUERZO NEGATIO, CASTIGO Y EXTINCIÓN

• Refuerzo negativo: estímulo que sigue a la respuesta y cuya retirada o


eliminación inmediata aumenta la probabilidad de la respuesta.
• Procedimiento de reforzamiento negativo (escape y evitación):
• Se establece una relación de contingencia negativa entre la respuesta y
la consecuencia.
• La realización de la respuesta elimina la consecuencia aversiva.
• El resultado es que aumenta la probabilidad de emitir esa respuesta en
el futuro.
• Procedimiento de castigo positivo:
• Relación de contingencia positiva entre la respuesta y la consecuencia.
• La realización de la respuesta va seguida de un estímulo
punitivo.
• El resultado es la disminución de la probabilidad de la respuesta.
• Procedimiento de extinción:
• Relación de contingencia positiva entre la respuesta y la ausencia de
una consecuencia positiva.
• La realización de la respuesta no va seguida por el estímulo
apetitivo por el que anteriormente iba seguida.

72
• El resultado (a medio-largo plazo) es la disminución de la probabilidad
de la respuesta

3. METODOLOGÍA EXPERIMENTAL

• Los aparatos más frecuentemente utilizados son la caja de vaivén y la caja de


salto:
• Disponen de dos compartimentos (A y B).
• Tienen una parrilla que se puede electrificar en el suelo.
• La rata puede librarse de la descarga saltando al otro compartimento.
• Los parámetros que se suelen registrar son la latencia de la respuesta, la
velocidad de la carrera, la tasa de respuesta, el número de errores, etc.

4. CONDICIONAMIENTO DE ESCAPE

• Procedimiento de control aversivo de la conducta en el que hay una relación de


contingencia negativa entre la respuesta y las consecuencias de la respuesta.
• Dos elementos:
1. Estímulo aversivo (hace funciones de reforzador).
2. Respuesta instrumental (interrumpe el estímulo aversivo).
• Consecuencia: aumenta la fuerza de la respuesta (frecuencia, probabilidad,
etc.).
• Operacionalmente se presenta un estímulo aversivo de forma intermitente y si
el sujeto realiza la respuesta adecuada cuando está presente el estímulo
aversivo, este se interrumpe.

• Dos variables influyen en el condicionamiento de escape:


• Intensidad del estímulo: a mayor intensidad, mayor respuesta de
escape.
• No es necesario que se elimine de forma total el estímulo
aversivo para que se refuerce la respuesta de escape (basta con
que la intensidad disminuya). ¿Implicaciones para la práctica?
• Demora del reforzador: a mayor demora del reforzador, peor
aprendizaje.
• Cuanto más se tarda en retirar el estímulo aversivo después de
realizar la respuesta adecuada, más lento es el aprendizaje.

73
5. CONDICIONAMIENTO DE EVITACIÓN

• Procedimiento de control aversivo de la conducta en el que hay una relación de


contingencia negativa entre la respuesta y las consecuencias de la respuesta.
- Muchas de las conductas que realizan los organismos están
destinadas a impedir que ocurran sucesos aversivos.
• Tres elementos:
1. Una señal que indica que el estímulo punitivo va a aparecer.
2. Estímulo aversivo (hace funciones de reforzador).
3. Respuesta instrumental (evita el estímulo aversivo).
• Consecuencia: aumenta la fuerza de la respuesta de evitación (frecuencia,
probabilidad, etc.).
• Operacionalmente, si durante el tiempo que está presente la señal, el sujeto
realiza la respuesta instrumental, ello impedirá que aparezca el estímulo
aversivo.
• Este procedimiento se denomina evitación discriminada.
- Su contraparte sería la evitación sin discriminar.

• Procedimiento de evitación sin discriminar (también llamado de operante libre


o discriminación de Sidman).
• Consiste en presentar la descarga a intervalos fijos, sin ir precedida de ninguna
señal de aviso.
• Si el sujeto no realiza la respuesta de evitación adecuada, recibirá la
descarga.
• Si el sujeto realiza la respuesta adecuada en el intervalo de tiempo
entre descargas, podrá aplazar o anular la presentación de la descarga
en ese ensayo.
• El intervalo de tiempo entre descargas se denomina intervalo descarga-
descarga.
• El intervalo de aplazamiento de la descarga cuando el sujeto realiza la
respuesta requerida se denomina intervalo respuesta-descarga.
• Con el procedimiento de evitación sin discriminar es posible establecer un
aprendizaje de evitación con tasas de respuesta altas, incluso sin que los
sujetos puedan evitar todas las consecuencias aversivas.
• ¿El aprendizaje de evitación es un condicionamiento clásico o un
condicionamiento instrumental?
• Se puede desarrollar aprendizaje por evitación bien con un
procedimiento de condicionamiento clásico (EC (sonido) —— EI
(descarga en músculo) —— RC (retirada del músculo), de forma que
ante la señal, (el EC), se dé la respuesta de forma automática), pero

74
también como un procedimiento de condicionamiento instrumental
(donde la respuesta se da de un modo “controlado”).
• ¿Cuál de los dos procedimientos da lugar a aprendizajes más intensos?
• Experimento de Wahlstein y Cole (1972):
• Sujetos: perros.
• VD: tasa de aprendizaje de la respuesta de flexión de la pata.
• Dos procedimientos: CC (no control de la respuesta de evitación)
y CI (control de la respuesta de evitación).
• CC: Emparejamiento EC-EI independientemente de la
conducta del sujeto.
• CI: Si se emite la conducta, se evita el reforzador.

• Experimento de Wahlstein y Cole (1972):


• Resultados:

• Conclusiones:
• Si interpretamos desde un CI, las respuestas de evitación son
reforzadas por sus consecuencias.
• Si interpretamos desde un CC, nos encontramos con varios
problemas.
1. En el grupo de CI, según avanza el entrenamiento, la
señal se presenta sola (sin reforzador). Si interpretamos
desde un CC, se estaría aplicando un procedimiento de
extinción clásica, de forma que la fuerza de la respuesta
debería disminuir. Sin embargo, ocurre lo contrario.
2. Interpretando desde el CC, este grupo debería tener
mayor tasa de respuestas que el de CI, dado que todas
las respuestas son reforzadas. Sin embargo, ocurre lo
contrario.

La conducta de evitación está controlada por sus consecuencias, luego se trata de un


CI

75
VARIABLES QUE INFLUYEN EN EL CONDICIONAMIENDO DE EVITACIÓN
• Intensidad del estímulo:
• Interacción entre la intensidad del estímulo y la dificultad de la tarea de
evitación
• Tarea sencilla —— A mayor intensidad del estímulo aversivo,
mayor velocidad de aprendizaje y mayor tasa de respuesta.
• Tarea compleja —— Los estímulos de intensidad alta dificultan
la adquisición de la respuesta de evitación
• Intervalo entre estímulos (presentación del estímulo discriminativo y la
aparición del estímulo aversivo)
• Intervalos muy largos o muy cortos hace que la respuesta se adquiera
peor.
• Lo más utilizado en experimentación son 10’’.
• Intervalo entre ensayos
• Intervalos cortos dificultan mucho el aprendizaje.
• Intervalos más largos, mejor (1-5 minutos).
• Dificultad de la tarea:
• A mayor dificultad de la tarea, mayor dificultad en el aprendizaje de
evitación.

EXTINCIÓN DE LA RESPUESTA DE EVITACIÓN


• ¿Qué ocurre en el condicionamiento de evitación si retiramos el reforzador?
• Según la extinción estudiada, al retirar el estímulo reforzador, debería
desaparecer la respuesta instrumental.
• En un procedimiento de condicionamiento de evitación, el hecho de
retirar el estímulo reforzador no suprime la respuesta instrumental. No
funciona la extinción ordinaria.
• ¿Cómo logramos, entonces, extinguir esta respuesta?
• Cambiar la contingencia respuesta – reforzador.
• Si antes la contingencia era negativa (desaparición del E
aversivo), ahora es positiva (aparición del E aversivo).
• Esta nueva contingencia hace que el sujeto suprima la
respuesta de evitación con rapidez y eficacia
• Inviable en la práctica clínica.
• Procedimiento de inundación o extinción verdadera.
• Tres operaciones:
i. Exposición forzada a la señal.
ii. Bloqueo de la respuesta.
iii. Ausencia de la estimulación aversiva.
• Efectividad en función del tiempo de exposición: cuando
mayor es el tiempo de exposición a la señal, mayor es la
supresión de la respuesta.
• Se suprime el miedo que motiva la conducta de evitación
mediante el procedimiento de condicionamiento clásico
(exposición al EC (señal) sin recibir EI (descarga))

76
TEORIAS EXPLICATIVAS DE LA EVITACIÓN
• Teoría de los dos procesos (Mowrer, 1960)
• Dos procesos implicados en el aprendizaje de evitación:
i. Proceso de condicionamiento clásico: el sujeto aprende a tener
miedo a la señal de aviso (EC).
ii. Proceso de condicionamiento instrumental: el sujeto aprende la
respuesta de evitación, reforzada por la reducción del miedo (y
no por la eliminación del estímulo aversivo).
• El sujeto no aprende a dar una respuesta instrumental
para evitar un estímulo aversivo, sino para escapar del
miedo que le produce la señal de aviso.
• Es un aprendizaje basado en las emociones, más que en
las consecuencias.
• Puesta a prueba de la teoría: experimento del impulso adquirido de
Brown y Jacobs (1947):
Sujetos: ratas. // VD: latencia de la respuesta (cambio de
compartimento).
Contexto: Caja con dos compartimentos
Dos fases y dos grupos:
• Fase 1: compartimentos estancos
• Grupo experimental: Presentación de un estímulo
discriminativo (señal) seguido de un estímulo
aversivo inevitable (descarga) (20 ensayos)
• Grupo control: Mismo tratamiento pero sin la
aplicación del estímulo aversivo.
• Fase 2: compartimentos conectados
• Grupo experimental y control: el animal puede
cambiar de compartimento, con lo que hace que
el estímulo discriminativo (señal) desaparezca.
• Independientemente de la conducta, no se
recibe descarga.
• Puesta a prueba de la teoría de los dos procesos: experimento del impulso
adquirido de Brown y Jacobs (1947):
• Resultados:
• La latencia de la respuesta fue
menor en el grupo
experimental que en el grupo
control.
• La respuesta aprendida fue la
respuesta contingente con la
señal.
• Conclusiones:
• La finalización del estímulo que
suscita el miedo parece ser suficiente para que el animal aprenda a
realizar la respuesta instrumental.
• Problemas de la teoría:

77
• Una de las predicciones de la teoría es que el miedo motiva la conducta
de evitación:
i. Si esto es así, la cantidad de miedo debería correlacionar con la
fuera de la respuesta de evitación.
• Sin embargo, cuando el entrenamiento es prolongado, la
respuesta de evitación es muy fuerte y el miedo, por el
contrario, es muy débil.

• Teoría de la señal de seguridad:


• Estímulos que acompañan a la respuesta de evitación: estímulos
retroalimentadores o estímulos feedback.
Internos o externos.
• La teoría considera que estos estímulos retroalimentadores pueden
adquirir características inhibitorias al señalar la ausencia de un estímulo
aversivo.
• Experimento de D’Amato, Fazzaro y Etkin (1968):
- Entrenamiento a ratas para presionar una palanca para evitar
una descarga.
- La realización de la respuesta de evitación iba seguida de un
estímulo explícito para señalar el período de seguridad.
- Los sujetos que reciben el estímulo feedback explícito adquieren
la respuesta de evitación mejor que los sujetos que no lo
reciben.
- Los estímulos que acompañan a la respuesta de evitación
pueden tener un efecto reforzador sobre la misma.

• El estímulo aversivo como reforzador (Sidman, 1962).


• Lo que motiva la respuesta de evitación es el estímulo aversivo.
• La rata corre ante la señal de aviso para impedir que ocurra la
descarga.
• Conclusiones extraídas tras evaluación de resultados
experimentales con el procedimiento de evitación sin
discriminar (no hay señal de aviso).
• Se puede objetar que la señal de aviso es el paso del
tiempo y que el sujeto emite la respuesta no para evitar
la descarga sino para poner el “contador” a cero y así
liberarse del miedo.
• Cuando se han utilizado períodos de tiempo variables
también se produce aprendizaje.
• Los animales detectan la contingencia respuesta
— reforzador y realizan la respuesta para reducir
la frecuencia de la descarga (tasa, probabilidad,
etc.).
• Según esta teoría, el aprendizaje de evitación es similar al de
escape.

78
• La diferencia radica en que la respuesta de evitación
reduce la probabilidad de recibir el estímulo aversivo y la
respuesta de escape solo lo retira cuando está presente.
• Limitación: no explica los resultados proporcionados por los
experimentos sobre el impulso adquirido.

• Teoría de las reacciones de defensa específicas de la especie (Bolles, 1970).


• Considera que no hay respuestas de evitación verdaderas.
• Las respuestas de evitación son respuestas de defensa
específicas de la especie que se desencadenan de forma innata
ante situaciones de amenaza o peligro.
• Cada especie dispone de una jerarquía de RDEE, creada en
función de lo que ha funcionado en el pasado.
• Las que han funcionado no han sido reforzadas con nada.
• Las que no han funcionado han sido castigadas con el
estímulo aversivo.
• Así pues, la RDEE que aparece no es la que ha sido
reforzada, sino la que menos ha sido castigada.
• Según esta teoría, el refuerzo no juega ningún papel.
• Tampoco tienen sentido las señales de aviso ni las
señales de seguridad de las teorías anteriores.
• Dado que las RDEE son innatas, lo que el animal aprende
solamente es a discriminar qué situaciones son peligrosas.
• Según esta teoría, se aprenderán mejor aquellas respuestas
próximas a las RDEE que una respuestas más lejana (confirmado
por estudios experimentales).
• No obstante, también es posible enseñar respuestas muy
lejanas a las RDEE.
LOS MECANISMOS DE ACTUACIÓN DEL CONDICIONAMIENTO DE EVITACIÓN NO
ESTÁN CLAROS

6. EL CASTIGO

• Consiste en la presentación de un estímulo aversivo tras la realización de una


respuesta instrumental.
• El resultado de este entrenamiento es una reducción de la fuerza de la
respuesta.

• Variables:
• Intensidad del castigo: relación directa entre la intensidad del castigo y
la supresión de la respuesta.
• Castigos de intensidad baja suprimen la respuesta solamente de
forma temporal, volviendo la tasa de respuesta a los valores
anteriores a la aplicación del castigo.
• Castigos de intensidad moderada suprimen la respuesta de
forma más duradera.

79
• Castigos de alta intensidad dan lugar a la supresión total y
duradera de la respuesta.
• Experimento de Azrin y Holz (1961)
• Sujetos: Palomas.
• Primera fase: entrenamiento en picoteo de disco
(reforzado con comida).
• Segunda fase (castigo): aplicación de distintas
intensidades de descarga según un programa IF 5
minutos.

• Experimento de Azrin y Holz (1961).

• Resultados:
i. Cuanto mayor es el castigo, mayor supresión de la respuesta.
ii. Recuperación de la respuesta ante intensidades moderadas, pero no
ante intensidades altas.
iii. La experiencia previa con el castigo influye en la efectividad de un
determinado castigo para suprimir la respuesta.
iv. El castigo produce un efecto de rebote al aumentar la tasa de
respuestas por encima de la línea base anterior al castigo.
v. Cuando las intensidades del castigo se van aumentando de forma
progresiva a lo largo de la sesión experimental, la supresión de la
respuesta es menor que si se comienza desde el principio con una
intensidad y se mantiene durante todo el entrenamiento.
• Efecto de habituación al castigo.
• Consiste en la presentación de un estímulo aversivo tras la
realización de una respuesta instrumental.
El resultado de este entrenamiento es una reducción de la fuerza
de la respuesta.

• Variables:
• Duración del castigo: relación directa entre la duración del castigo y la
supresión de la respuesta.
• Demora del castigo: cuanto más cercano a la respuesta, más efectivo
es.
• Programa de castigo:

80
• Para que el castigo sea eficaz debe aplicarse de forma
consistente.
• Experiemento de Azrin, Holz y Hake (1963).
• Fase 1: Palomas entrenadas para picotear disco con un
programa IV 3 minutos.
• Fase 2: Castigo bajo programa de razón fija que varía
entre RF 1 y RF 1000.

• La supresión de la respuesta
disminuye a medida que aumenta
el número de respuestas exigido
por el programa de castigo.
• Cuanto mayor es la relación
de contingencias respuesta –
refuerzo, mayor es el efecto del
castigo sobre la supresión de la
respuesta.

• Consiste en la presentación de un estímulo aversivo tras la realización de una


respuesta instrumental.
• El resultado de este entrenamiento es una reducción de la fuerza de la
respuesta.

• Variables:
• Castigo discriminado:
• A veces el castigo cae bajo el control de un estímulo
discriminativo.
• Cuando esto ocurre, el castigo es muy poco efectivo.
• Dinsmoor (1952):
• Fase 1: entrenamiento de presión de palanca IV 2
minutos
• Fase 2:
i. 5 minutos con la luz apagada: castigo.
ii. 5 minutos con la luz encendida: no castigo.
• Resultados: los animales aprenden a presionar la palanca
solo cuando la luz está encendida.
• La persona que aplica el castigo puede convertirse en el estímulo
discriminativo.
• Limitaciones y precauciones del castigo:
• Problemas éticos dado que el único castigo eficaz a largo plazo es el de
intensidad alta.
• Es poco probable que el castigo se pueda aplicar siempre que se emite
la respuesta
• También es poco probable que no quede sujeto a estímulos
discriminativos concretos.
• En ocasiones el agente que aplica el castigo solo puede hacerlo tras una
demora larga tras la ejecución de la respuesta que se quiere suprimir.

81
• Puede tener efectos indeseables:
• Respuestas de contracontrol.
• Genera respuestas agresivas en el agente que aplica el castigo.
• Genera respuestas agresivas en la persona que recibe el castigo.
• El agente que aplica el castigo puede convertirse en un estímulo
aversivo por CC.

82

También podría gustarte