Está en la página 1de 119

APRENDIZAJE HUMANO
1º de Psicología, Curso 2022/23
TEMA 1: INTRODUCCIÓN AL ESTUDIO DEL APRENDIZAJE

1. INTRODUCCIÓN
El aprendizaje es una característica básica de la conducta, (como por ejemplo el gateo), se
trata de un fenómeno extendido por todo el reino animal y uno de los procesos que facilita la
adaptación al ambiente. Aprendemos en base a las necesidades.
Las personas nacemos aprendiendo, en base a las experiencias y necesidades por ello, hay que
considerar qué aprendemos y cómo aprendemos (cocinar, nadar,etc.) y los ajustes
conductuales que permiten compensar a los cambios ambientales (depredadores, búsqueda de
comida). El cambio en la conducta que se utiliza para identificar el aprendizaje puede ser,
tanto un aumento, como un descenso en una respuesta, es decir, podemos aprender a reconocer
a los amigos de los extraños o jugar al tenis, como podemos aprender a no hacer ciertas cosas
como no llevarse por los impulsos de pegar a una persona.
En esta materia no nos centramos en las formas de aprendizaje que requieren un entrenamiento
especial, si no los principios básicos y primordiales del aprendizaje y la conducta
(normalmente cosas rutinarias), las cuales, a menudo no requieren nuestra atención,(se trata de
relaciones sencillas entre elementos del entorno, se investiga mediante experimentos que
conllevan condicionamientos u otros procedimientos, es de suma importancia el contexto, es
decir, los estímulos antecedentes y las consecuencias) en este sentido, la reflexión y el
razonamiento conscientes quedan deliberadamente fuera del análisis conductual de nuestra
materia. Su estudio aborda otras disciplinas de psicología básicas como pensamiento, lenguaje,
memoria, etc.
El pensamiento, el lenguaje, la memoria, la atención, la percepción, la emoción, la motivación
y el aprendizaje son procesos cognitivos, que son procesos de conocimiento y los que están
implicados en el proceso de la información.

2. DESARROLLO EXPERIMENTAL DE LOS PRINCIPIOS DEL


APRENDIZAJE
El desarrollo experimental comenzó a tomar auge hace 100 años con estudios que empleaban
animales dentro de la tradición reflexológica. Este desarrollo estuvo impulsado por:
• El interés en la teoría de la evolución, la cual formo parte:
o Darwin (1897) decía que había una continuidad entre animales y humanos,
no solo en los rasgos físicos, sino también en las capacidades psicológicas. La
mente humana es producto de la evolución, es decir cree que las capacidades
mentales también están sometidas al principio de evolución.
o Romanes (1882) puso criterios para identificar el comportamiento inteligente
en animales, en función de la capacidad de aprender. Esto convirtió al estudio
del aprendizaje en la clave para obtener información sobre la evolución de la
inteligencia, sugirió que la inteligencia podría identificarse determinando si un
animal aprende, mediante la experiencia individual (aprender de los errores).
• Interés del funcionamiento del sistema nervioso, el cual forma parte:
1
o Pávlov: nerviosismo (las principales funciones fisiológicas están gobernadas
por el sistema nervioso). El fisiológico ruso lo identificó por los mecanismos
neurales de la digestión, a esto lo llamó “nervismo” (perro salivaba). Que más
adelante empezó a investigar sobre los reflejos condicionados, como medio
para obtener información sobre el sistema nervioso. Los estudios conductuales
pueden proporcionar pistas sobre la maquinaria del sistema nervioso. Tales
estudios nos informan sobre la plasticidad potencial del sistema nervioso, de
las condiciones en las que puede tener lugar el aprendizaje, de los mecanismos
por los que persisten las RR aprendidas y las circunstancias por las que la
información aprendida es o no accesible. (Al detallar las funciones del sistema
nervioso, los estudios conductuales del aprendizaje definen rasgos u
operaciones que deben ser explicados por investigaciones de tipo
neurofisiológico)
• Interés en desarrollar modelos animales de conducta humana. Se realizó, ya que
puede proporcionar información útil para la comprensión de la conducta humana.
Los modelos son herramientas, que permiten estudiar la realidad en condiciones
sencillas, controladas y económicas. (Por ejemplo, cada vez que una rata toca una
palanca hay recompensa)

3. DEFINICIÓN DE APRENDIZAJE
Dojman (2003) dice que es el cambio duradero en los mecanismos de conducta que implica
estímulos y/o respuestas específicas y es resultado de la experiencia previa con estímulos y
respuestas o con otros similares.

3.1 APRENDIZAJE Y EJECUCIÓN


En ocasiones el aprendizaje es conductualmente silencioso. Hay cosas que aprendemos a
hacer, pero no ponemos en marcha, y no se manifiesta a través de la conducta.
El aprendizaje se define en términos de un cambio en los mecanismos de la conducta, para
hacer hincapié en la distinción entre aprendizaje y ejecución. La conducta de un organismo (su
ejecución) se utiliza como prueba de aprendizaje, pero cómo puede estar determinada por otros
factores hay que proceder con cautela a la hora de atribuir la presencia de aprendizaje.

3.2- APRENDIZAJE Y OTRAS FORMAS CONDUCTUALES


No en todos los casos en los que cambia la conducta son ejemplos de aprendizaje. Hay otras
formas de cambio conductual alternativas:
• Maduración: es un cambio duradero debido al transcurso del tiempo, no debido a la
experiencia, es decir, la “maduración física” (por ejemplo, los niños crecen y se hacen
más fuertes entre los 5 y los 10 años y son capaces de levantar objetos más pesados o
de alcanzar estantes más altos). Este factor actúa a veces con el aprendizaje, sin
embargo, no requiere práctica específicamente con el cambio que ocurre en la conducta.
A. Sin embargo, todo aprendizaje requiere una práctica relacionada específicamente con
el cambio en la conducta (por ejemplo: andar en bici).

2
B. Cambios conductuales debidos al aprendizaje tienden a ser específicos de la respuesta
practicada, mientras que los cambios en maduración y crecimiento producen cambios
en la conducta en contextos muy diferentes. Ejemplo: cocina eléctrica sólo
generalizable a situaciones muy similares (otras cocinas eléctricas, no microondas o
fogata).
• Fatiga: cambio no duradero debido a la experiencia.
• Estado fisiológico o motivacional: cambio temporal de la conducta, por ejemplo,
cuando estas bebiendo alcohol
• Cambios estimulares: cambio temporal restringido a la condición estimular o estado
emocional (p.e. enciendo la luz en un cine).

3.3 TIPOS DE MECANISMOS CAUSALES EN APRENDIZAJE


(DOMJAN,2003)
Hay cuatro tipos de causas:
-Causa Eficiente: son condiciones necesarias y suficientes para producir cambio en la
conducta. Se refiere a una experiencia anterior con estímulos (EE) y respuestas (RR)
específicos que producen cambio en la conducta
-Causa Material: son las causas eficientes de cambio de conducta que están mediadas por
cambios neurales en el sistema nervioso. Se refiere a los cambios físicos en el sistema
nervioso, que median en el aprendizaje. Incluyen cambios en mecanismos sinápticos
(mecanismos que nacen bajo el pensamiento y la percepción. También el sistema nervioso
conecta y controla todos los sistemas del cuerpo)
-Causa Formal: son mecanismos conductuales del cambio del comportamiento. Se refiere a
teorías o modelos de aprendizaje expresados en términos matemáticos, computacionales o a
partir de constructos teóricos.
-Causa Final: hacen énfasis en la función o utilidad última del aprendizaje. La causa final
es el éxito reproductivo de los organismos. Los mecanismos de aprendizaje evolucionan porque
proporcionan una ventaja evolutiva.

4. ASPECTOS METODOLÓGICOS EN EL ESTUDIO DEL APRENDIZAJE


Si existen principios universales del aprendizaje, deberíamos ser capaces de descubrirlos en
cualquier situación y especie, en la que tenga lugar el aprendizaje.
De ahí que se estudie el aprendizaje en un número reducido de situaciones experimentales
estandarizadas.
4. 1 GENERALIDAD DEL APRENDIZAJE
Los principios elementales que estudiaremos tienen una generalidad considerable. La mayoría
de los estudios que se han llevado a cabo con palomas y ratas. Se han encontrado formas
similares en peces, hámsteres, gatos, perros, seres humanos, delfines, etc.

3
La ciencia tiende a formular leyes generales con las que organizar y explicar la diversidad de
los acontecimientos. Se trata de estudiar los elementos comunes de diversos tipos de
aprendizaje, asumiendo que son producto de procesos elementales que operan de forma similar
en diversas situaciones y especies.
La generalidad se sitúa en los principios o procesos del aprendizaje, no en el contenido de este,
o en la velocidad a la que se produce. (Lo que interesa es el proceso común de la respuesta ante
los estímulos, no el comportamiento ni la morfología.)
Introduce video de la rata simulando una persona adicta a las apuestas
4.2 EL APRENDIZAJE COMO CIENCIA EXPERIMENTAL
Hay dos aproximaciones básicas hacía el aprendizaje
• Observación natural: observación y medida de la conducta, como ocurre en
condiciones naturales, sin intervenciones o manipulaciones inducidas por el
investigador. Puede ser el paso inicial de investigación, pero en sí no es apropiada para
los estudios de aprendizaje. Por ejemplo: observamos a unas ardillas y empezamos a
observar y apuntar sus comportamientos.
• Manipulación Experimental: se pueden formular hipótesis acerca de lo que los
animales están aprendiendo en base a la observación natural. Sin embargo, para estar
seguros que esos cambios conductuales son debidos al aprendizaje, y no a otras
variables, es necesario realizar experimentos en los que las supuestas experiencias de
entrenamiento se manipulen sistemáticamente: manipular la presencia vs ausencia de
esas experiencias, es decir, las condiciones están diseñadas por el investigador con el
fin de establecer relaciones de casualidad entre las variables que influyen en el
aprendizaje. Por ejemplo: después de haber observado naturalmente a las ardillas y
descubrir que recogen un tipo de semillas, como se las comen, y lo que hacen, pero aún
no sabes por qué cogen unas semillas y otras no, si dedican más tiempo a recolectar
unas horas u otras, etc. Podrían compararse dos situaciones: exceso de comida y sólo
cantidad de subsistencia (el resto de las condiciones serían idénticas: luz, temperatura,
cambios de luz, follaje, etc.). Si entierran más semillas cuando la comida es abundante
que cuando es escasa podemos concluir que el exceso de comida alienta o causa que
entierren comida. Las conclusiones causales son inferencias basadas en observaciones
experimentales. Las causas últimas de la conducta no pueden observarse directamente.
4.3 EL EXPERIMENTO BÁSICO DE APRENDIZAJE
- Solo puede investigarse con manipulaciones experimentales que sirvan para asilar una
experiencia pasada específica (variable independiente) como la causa de un cambio en la
conducta (variable independiente). La variable independiente es la que no manipulo y la
variable dependiente es la que tu mides el efecto sobre la conducta, por ejemplo, la cantidad de
tiempo en la que se mide la manipulación
-Para ello deben compararse sujetos que han tenido esa experiencia (grupos experimental)
con sujetos que no la han tenido (grupo de control), si no el resto de circunstancias idénticas
(control de las variables extrañas)
- El aprendizaje se interfiere solamente a partir de la comparación entre las dos situaciones

4
- Hay una investigación de indefensión aprendida de Overmier y Seligman en 1969.
• Utilizaron la sensación de falta de control (variable independiente) que tiene una
persona en la aparición de: (variables dependientes)
o Depresión
o Fracaso escolar
o Sensación de estar “quemado en el trabajo”
o etc.
• Como era éticamente imposible llevar a cabo un experimento de este estilo con
humanos, dado que tendrían que ser sometidos a experiencias muy desagradables,
además del control de las variables extrañas también sería muy complicado. En
cambio, para salvar estas dificultades Martin Seligman, planteo una serie de
experimentos con animales que dieron lugar a la indefensión aprendida.
• Utilizando perros, diseñaron un experimento con dos fases:
o Fase de inducción de indefensión: en un arnés, administraban a perros a una
serie de choques eléctricos de los cuales no podían escapar (variable
independiente)
o Fase de prueba: en otro aparato diferente, los perros tenían ocasión de escapar
de los choques eléctricos. Se medía el tiempo que empleaban en hacerlo, el
número de errores en escapar, el tiempo durante el cual recibían las descargas,
etc. (variables dependientes)
• La indefensión aprendida: término empleado por Seligman y Maier (1967),
Overmier y Seligman (1967):
o Encontraron comportamientos inesperados en perros: tras recibir descargas
incontrolables en un arnés (condicionamiento clásico), al ser introducidos en
una caja de lanzadera aprendían a escapar
o Desarrollo del “diseño triádico” para asegurarse de que la variable responsable
de los déficits es la incontrolabilidad.
▪ El diseño triádico en la fase de indefensión, para asegurarse de que la
variable independiente es la falta de control sobre el choque. Hubo tres
grupos (FOTO AL FINAL DEL RESUMEN)
• Grupo evitable: puede terminar con la descarga (por ejemplo,
cada 3 vueltas reciben una descarga, si no las realiza no hay
descarga)
• Grupo inevitable: recibe las descargas del grupo anterior, pero
sin poder controlarlo
• Grupo que no recibe descargas
▪ Los resultados que se han obtenido son:
• En el grupo de descarga inevitable, no se escapaba de las
descargas
• El grupo de la descarga evitable se escapaba rápidamente de
las descargas saltando la barrera.

5
• El grupo que no ha recibido ninguna descarga, es decir, la
condición de control sin descarga, se escapaba rápidamente de
las descargas saltando la barrera
o Los efectos de incontrolabilidad por lo tanto causaban:
▪ Déficit motivacional: Dificultad para iniciar respuestas voluntarias de
escape en un área controlable posterior: mayores latencias de respuesta
y menor número de respuesta de escape-evitación (fracaso laboral,
persona que haya sufrido acoso)
▪ Déficit asociativo: Adquisición de expectativa de independencia entre
la respuesta y el resultado en el futuro: incremento del número de errores
y de ensayos para realizar correctamente la tarea (la experiencia que va
a ser todo igual y previene el futuro)
▪ Déficit emocional: Estado elevado de emocionalidad, que incluye el
miedo, ansiedad y en última instancia depresión: aumento del número
de úlceras en el estómago. (incluye miedo, ansiedad y en última
instancia depresión)
o A partir de estos estudios iniciales, Seligman señala que este podría ser un
modelo de depresión en humanos y tras sucesivas reformulaciones acaba
convirtiéndose en una línea fructífera para explicar y modificar aquellas
situaciones en las que presente la expectativa de falta de control sobre los
acontecimientos.

6
7
TEMA 2: APRENDIZAJE NO ASOCIATIVO: RAFLEJOS, HABITUACIÓN Y SENSIBILIZACIÓN

1. Los Reflejos
La unidad de conducta innata más simple es el reflejo, además de ser la unidad de conducta
incondicionada más pequeña. El concepto reflejo fue formulado por René Descartes (1560-
1650), basándose en las estatuas animadas que había visto en los parques públicos de Francia.
- Movimiento objeto en periferia- girar la cabeza
- Comida en la boca-salivación
- Luz brillante- contracción de pupilas
- Tocas algo caliente- retirada de mano
- Ruido fuerte- sobresalto
- Golpe bajo la rodilla- patada
Sistema dualista cartesiano

Este sistema considera necesarios la mente y el cuerpo para explicar la conducta en su totalidad.
- Los objetos del mundo físico afectan a los órganos de los sentidos, que mandan
señales al cerebro a través de los nervios. En el cerebro pasan dos cosas:
o A) Se produce la acción, de forma puramente mecánica, enviando espíritus
animales a los músculos a través de los nervios. Esta cadena entre sentido
cerebro-músculo se denominará posteriormente arco reflejo.
o B) Al mismo tiempo, el cuerpo interactúa con la mente en la glándula
pineal, situada cerca del centro del cerebro. Esto permite a la mente estar al
corriente de los dos tipos de acciones del cuerpo:
▪ las reflejas e involuntarias, sobre las que no tiene control y,
▪ las voluntarias, sobre las que ejerce un control total.
Todas las acciones involucran a los mismos nervios y músculos, pero las voluntarias se
originan en la mente (una entidad no física) y las involuntarias en los objetos del mundo
físico. Sólo los seres humanos poseen el camino suplementario que conduce a la acción
voluntaria.

1
Según Descartes, dado que la mayor parte de la conducta (incluida la conducta animal) tiene
tan poco que ver con la mente como la conducta de una piedra, se la puede considerar sujeta a
las mismas leyes físicas que rigen la conducta de una piedra.
Por otro lado, las acciones de la mente no están sujetas a las leyes físicas, sino que vienen
determinadas por otras leyes, desconocidas y quizás incognoscibles.
Del dualismo parten dos tradiciones intelectuales:
A) En una de ellas se discutía el contenido de la mente y su funcionamiento. Dado que
no tenía entidad física, su estudio se llevó a cabo mediante el método de la
introspección. Los pensadores implicados fueron más filósofos que científicos
experimentales.
B) Estudio de los mecanismos de la conducta refleja. Dado que los reflejos son
provocados directamente por EE externos, su estudio se ha llevado a cabo usando los
métodos de observación directa y experimentación.
Por otra parte, en los vertebrados los reflejos simples suelen estar mediados por tres neuronas,
que constituyen el arco reflejo:
- Neurona sensorial
- Interneurona
- Neurona motora
Para un tipo de respuesta de refleja activa una neurona sensorial que transmite el mensaje a
la medula espinal. En la médula, los impulsos se transmite el mensaje a la medula espinal. En
la médula, los impulsos se trasmiten a una interneurona que a su vez los transmite a la
neurona motora activa los músculos implicados en la respuesta refleja. La unidad completa
desde la entrada del estímulo hasta la emisión de la respuesta se denominó arco reflejo.
Pueden verse involucradas estructuras neuronales superiores, que a su vez pueden modificar la
reacción refleja de diversas formas.

Todos los animales reacción a los estímulos que tienen lugar en su entorno, los reflejos están
implicados en muchos aspectos de la conducta importantes para realizar funciones críticas para
la vida.

2
Por ejemplo: BEBES REFLEJO DE OCLUSIÓN RESPIRATORIA
Se pone en marcha por una reducción en el flujo de aire que llega al bebé (mocos o prenda que
oprime)
1- Primera reacción: inclinar la cabeza hacía atrás.
2- Mover las manos como si se frotara la cara
3- Llanto
Durante varios siglos después de Descartes, las investigaciones acerca de los reflejos se
centraron en la resolución de cuestiones fisiológicas. Los científicos estudiaron el circuito
neuronal del arco reflejo, los mecanismos de conducción neuronal y el papel de los reflejos en
diferentes sistemas fisiológicos. Estas investigaciones continuaron de un modo acelerado en el
S. XX. Además, la idea de la conducta elicitada llegó a extenderse a formas más complejas y
vistosas de conducta. La mayor parte de este trabajo se realizó dentro del nuevo campo de la
etología.
2. Cambios en los reflejos: efectos de la estimulación repetida
Hay una noción equivocada de Descartes sobre los reflejos:
- Aunque sea innata, se producen alteraciones de la respuesta refleja simplemente como
consecuencia de la presentación repetida del estímulo de la provoca.
- Estas modificaciones constituyen formas de aprendizaje preasociativo, dado que el
cambio de la respuesta no es producto del desarrollo de ninguna asociación nueva.
Es decir, no podemos reaccionar a todo lo que nos rodea. Por ejemplo: respuesta de
orientación: nos orientamos hacia un Estímulo visual nueva (p.e. Alguien entrando en la
habitación) y miramos en la dirección de un ruido extraño. Sin embargo, si respondiéramos a
todo lo que nos encontráramos estaríamos desperdiciando gran parte de nuestro esfuerzo.
Muchos de los Estímulos Enviados no son suficientemente importantes como para merecer que
nos orientemos hacia ellos. Habituación y sensibilización sirven para regular el nivel de
respuesta ante los Estímulos Enviados ambientales.
a. 2.1 Respuesta de sobresalto en los humanos
- Respuesta defensiva (salto repentino y contracción de músculos parte superior del
cuerpo, acompañada de una elevación de los hombros) elicitada por sonidos,
luces,etc..
- Estudio de Ornith y Guthrie (1989) una sesión diaria de 20 presentaciones de ruido
blanco de 105 dB, durante 5 días. Se evaluó el sobresalto a través de la presencia de
parpadeo.

3
Davis (1974):
SONIDO 90 Milisegundos, 110 dB y 4000 ciclos por segundo durante 100 presentaciones.
En un grupo el RUIDO AMBIENTAL ERA SUAVE (60 dB), y en el otro era más bien
FUERTE (80 dB).
Para las ratas expuestas al sonido ambiental suave, las repeticiones del ruido provocaron una
reacción de sobresalto cada vez más débil.
Cuando el ruido ambiental era intenso, las repeticiones del tono provocaban reacciones de
sobresalto cada vez más vigorosas
b. Atención visual en bebés
• Estudio con bebés de 4 meses ( Bashinski, Werner y Rudy, 1985) Dos estímulos de
10´´ duración presentados cada 10”
• La atención visual cambia como consecuencia de la experiencia repetida con el mismo

3. Habituación y sensibilización
La habituación es la disminución y eventual desaparición de reacciones ante un estímulo
como consecuencia de su presentación reiterada. Aprendizaje no asociativo de carácter
negativo
La sensibilización es el incremento más o menos permanente de una respuesta innata por
efecto de su estimulación reiterada. Proceso de aprendizaje no asociativo de carácter positivo.
Los fenómenos de habitación y sensibilización son el producto final de procesos que ayudan
a organizar y focalizar la conducta en el caótico mundo de estímulos en que vivimos. No
podemos reaccionar con la misma intensidad ante todos los Estímulos Enviados que nos rodean
cada vez que se presentan.
A) Ante una respuesta de sobresalto ante la presentación de un estímulo sorprendente. Por
ejemplo, la explosión de un globo inesperado. La premisa es: la conducta elicitada no
ocurre dos veces del mismo modo cuando se repite un E. Elicitador. La repetición
de un estímulo elicitador a veces produce un descenso rápido y monotónico en la
respuesta. Por ejemplo, reacción ante
- Sonido suave: sobresalto las primeras veces que ocurre y desaparición posterior

4
- Olor suave: se puede producir una Respuesta de Orientación al principio, pero está se
habitúa rápidamente. Después de un tiempo no se notará el olor

B) Si el olor es intenso y desagradable resulta más difícil acostumbrarse a él, la respuesta


se incrementa un tanto al principio y luego declina. Lo mismo sucede con un ruido
elicitador de sobresalto moderadamente intenso, con combinación de habitación y
sensibilización,

C) Cuando el E. Elicitador es muy intenso, su repetición se produce en aumento sostenido


de la respuesta:
a. Olor particularmente desagradable: la reacción aumenta a medida que aumenta
la exposición al olor y puede ser imposible de ignorar
b. Ídem ante ruido muy intenso (cohete)
Otro ejemplo es que si estamos en casa de una persona que no conocemos le prestamos mucha
más atención a las cosas que otras veces.

a. 3.1 Habituación, Adaptación sensorial y fatiga.


La disminución de una respuesta puede ser debida a:

5
• Pérdida temporal de sensibilidad a la estimulación (adaptación sensorial). Por
ejemplo: ceguera temporal por luz brillante. Se descarta por existir evidencia de la
Habituación especifica de la respuesta: un organismo puede dejar de responder a un
Estímulo con un aspecto de su conducta, mientras continúa respondiendo al mismo de
otras formas. Cuando un profesor nos da un aviso mientras hacemos un examen, es
posible que al principio desviemos la mirada del examen por un breve lapso, aunque
escuchemos el aviso hasta el final. Por tanto, nuestra Respuesta Orientada se habitúa
rápidamente, pero otras RROO al E se mantienen.
• Incapacidad de respuesta de los músculos involucrados por la fatiga. Se descarta
porque hay evidencia que indica que la habituación es específica del estímulo. En
estos dos casos, la adaptación sensorial y la fatiga impiden la respuesta a nivel de
los órganos sensoriales y los músculos, sin la intervención del SN: Una R. Habituada
se recupera rápidamente cuando se introduce un E. Novedoso, lo cual indica que la
disminución de la R. No se debe a la fatiga.
• Habituación: cambios neurofisiológicos en el Sistema Nervioso que bloquean la
transmisión del impulso nervioso a las neuronas motoras.

b. 3.2 Características de Habituación y sensibilización

A) Curso temporal
La recuperación de la respuesta habituada se produce después de un período sin estimulación:
recuperación espontánea. Relación con el periodo de descanso: intervalos más largos
producen mayor recuperación de la respuesta. Se disipan con el tiempo si no se presenta el E
elicitador. Esto produce un efecto de recuperación de la R. La recuperación de la R se produce
después de un período sin estimulación: recuperación espontánea.
Por ejemplo: Si un padre mueve un sonajero observa cómo el niño lo mira y trata de cogerlo.
Tras 5 o 6 ensayos, el niño deja de prestarle atención. Sin embargo, si vuelve a hacerlo sonar
unas horas después, vuelve a acaparar su RO.
La Relación con periodo de descanso son intervalos más largos producen mayor
recuperación de la R. Sin embargo, eso no es siempre así: hay respuestas en las que no se
aprecia recuperación espontánea aún con períodos de descanso de varias semanas. Por
ejemplo, en el caso de un niño que toma cade repetidamente sin sentirse enfermo y se
acostumbra al calor no es probable que vuelva a mostrar una respuesta neofobia, aunque haya
pasado semanas sin probarlo. En función en que la que se aprecia recuperación puede ser
espontanea o no:
- Habituación de corto plazo (recuperación espontánea)
- Habituación a largo plazo (No hay recuperación espontanea)
Pueden producirse ambos efectos: cuando un periodo de descanso produce algo de
recuperación en la respuesta habituada, pero la recuperación no es completa

6
B) Especificad del estímulo
Esta:
• Habituación que es específica del estímulo que ha sido presentado repetidamente.
Puede darse también el fenómeno de generalización del estímulo de la habitación. Por
ejemplo, habituación de un reloj presentado a su sonido. Sin embargo, en función de la
generalización del estímulo de la habituación, la similitud del E de prueba con el
original hace que la R tienda a habituarse, y su disimilitud evita esa habituación.
• Sensibilización: no es muy específica del estímulo. Si un animal se activa por alguna
razón, su reactividad se incrementará ante una variedad de EE:
o Choques electicos: aumenta la reactividad ante claves visuales y auditivas
o Malestar gástrico y nauseas: incremento reactividad ante otros sabores
o Ver una película de miedo: incremento de reactividad ante cualquier estimulo
imprevisto que provoca gran sobresalto

C) Efecto de la presentación de un estímulo nuevo


Esta la Deshabituación, una vez que se produce la deshabituación a un estímulo, la presentación
de un estímulo nuevo y sorprendente produce una recuperación de la respuesta. Un estudio de
Epstein, Rodefer, Wisniewski y Caggiula (1992) sobre la salivación de 8 mujeres ante zumo
de lima y limón. Las personas encontramos menos placentero un sabor como consecuencia de
ingerirlo muchas veces. Sin embargo, el sabor de una comida distinta es suficiente para
restablecer la valoración agradable de una comida familiar.
La salivación se incrementó del ensayo 1 al 2, y hasta el 10 disminuyó, al igual que la
Evaluación Hedónica del sabor. En el ensayo 11 se cambió el sabor, invirtiéndose. Esto
produjo una gran recuperación tanto del reflejo salival como de la evaluación hedónica. En el
ensayo 12 persistió la recuperación, aunque se presentó el sabor original.

7
Las personas encontramos menos placentero un sabor, como consecuencia de comerlo muchas
veces, sin embargo, el sabor de una comida distinta es suficiente para restablecer la valoración
hedónica de una comida familiar. La sobrealimentación se incrementa con el cambio de
alimentos disponibles.
También se puede hablar del restablecimiento de la respuesta habituada al sensibilizarse ante
un estímulo nuevo e intenso. Por ejemplo, en el salón de casa hay un reloj de pared que hace
ruido infernal que impide concentrarse en la lectura. Después de una hora apenas oímos el reloj.
Justo en ese instante llaman al timbre de la puerta lo cual nos sobresalta mucho. Era alguien
repartiendo publicidad. Sin embargo, tratamos de volver a la lectura de nuevo, pero el tictac
del reloj al que nos acostumbramos impide que nos concentremos.
D) Efecto de la frecuencia de presentación del estimulo
La presentación masiva del estímulo (alta frecuencia de presentación) facilita la habituación
de la respuesta
La frecuencia de estimulación baja (práctica distribuida) hace que la respuesta no decaiga tan
rápidamente (dificulta la habituación).
E) Intensidad del Estimulo
La respuesta declina más lentamente cuando el estímulo es más intenso.

8
La variable intensidad del E parece ser la más relevante. En gatos espinales se ha apreciado
que cuando se presenta con gran frecuencia un E débil se logra gran habituación. Por el
contrario, cuando la fr. De presentación es baja, es decir, cuando hay un gran intervalo temporal
entre dos presentaciones sucesivas del E, y éste es intenso, se obtiene gran sensibilización.
c. 3.3 Mecanismos de habituación y sensibilización
A) Teoría del proceso dual:
Groves y Thompson en 1970 desarrollaron la Teoría del proceso dual, basada en estudios
neurofisiológicos de habituación y sensibilización. Son procesos o mecanismos neurales
subyacentes de habituación y sensibilización que se presumen responsabilidades de los efectos
conductuales de habituación y sensibilización
Estos procesos son los responsables de los cambios conductuales observables, pero no están
directamente reflejados en dichos cambios
Dos componentes funcionales del sistema nervioso:

• Sistema E-R: vía neuronal más corta entre el E elicitador y la R. Arco reflejo más
siempre de 3 neuronas. Se activa siempre ante un E elicitador.
• Sistema estado: procesos neurales que no son parte del integrante del sistema E-R
pero que influyen en la reactividad de este. Vías medulares ascendentes y descendentes
para modular los reflejos. Sólo se activa en circunstancias especiales (EE intensos que
incrementan el estado de alerta y sensibilizan, repetición de esos EE). Es alterado por
drogas y estados emocionales que afectan a la tendencia a responder.
Los procesos de habituación tienen lugar en el sistema E-R y la sensibilización en el
sistema estado.
Los procesos de habitación y sensibilización no son evidentes en la conducta del organismo
(efectos de habituación o sensibilización). La conducta observable refleja el resultado neto
de estos dos procesos:
- Siempre el proceso de habituación sea más fuerte que el de sensibilización, el resultado
neto, será un descenso neto en la respuesta conductual (efecto de habituación) y a la
inversa (efecto de sensibilización)
- Se supone que los dos procesos decaen con el tiempo tras ser activados.
Los mecanismos del proceso dual de la habitación y la sensibilización. Son que las líneas
punteadas indica la fuerza de los procesos de habituación (H) y sensibilización (S) a lo largo
de los ensayos junto las líneas enteras indican los efectos netos de estos dos procesos:

9
- en el panel izquierdo el proceso de habituación llega a ser más fuerte que el proceso
de sensibilización, lo que conduce a un descenso progresivo de la conducta o efecto de
habituación.
- En el panel derecho, el proceso de sensibilización llega a ser más fuerte que el de
habituación, lo que conduce a un incremento progresivo de la R o efecto de
sensibilización.

B) Intensidad del estímulo y teoría del proceso dual.

Groves y Thomson (1970) media la habituación y la sensibilización en función de la


intensidad y el número de ensayos. Las líneas discontinuas representan los dos procesos de
habituación (H) y sensibilización (S). Los puntos unidos por la línea continua corresponden
a los datos conductuales del reflejo de flexión de miembro posterior de un gato espinal.
- En el panel A la descarga aplicada en la pata es de intensidad baja, cercana al umbral
de la R.
- En el panel B Y C corresponde a las intensidades de descarga mayores, se observa
que al aumentar la intensidad aumenta la sensibilización y el proceso de habituación es
menos pronunciados.
- En el panel D, con estímulos muy intensos, el proceso de sensibilización es muy
acusado y se produce sensibilización de la respuesta.

4. Aplicaciones. La habituación a pensamientos obsesivos.

10
El principio de la habituación se utiliza a menudo en la terapia de conducta para el tratamiento
de los pensamientos recurrentes problemáticos. Muchas personas se preocupan por sus “malos”
pensamientos, cómo ideas blasfemas o considerar que otras personas son gafes. Estos
pensamientos tienden suscitar una gran ansiedad. Rachman (1978) propuso que tales
pensamientos obsesivos se consideren como estímulos nocivos a los que el individuo no está
habituado. El tratamiento por tanto consiste en hacer que el individuo piense continuamente en
esas cosas “malas” hasta que se habitué la respuesta de ansiedad. Los procedimientos de este
tipo se suelen llamar “tratamientos de exposición prolongada” porque el paciente, con ayuda
de un terapeuta, se expone a las ideas problemáticas durante largos períodos. En un primer
momento, el procedimiento del lugar a un aumento de la ansiedad. Conforme continúa la
exposición, la ansiedad, tal y como la percibe paciente, disminuye. Basándose en diversos
estudios con resultados comparables, Emmelkamp (1982) ha concluido que, para los
pensamientos obsesivos, el tratamiento de exposición prolongada es, sin duda, un éxito.
Ejemplo diapositiva 30.

11
TEMA 3: CONDICIONAMIENTO CLÁSICO. FUNDAMENTOS

1. Introducción

Con la habituación y sensibilización se permite cambios a respuestas que ya pertenecen al


repertorio del sujeto. No permiten el aprendizaje de nuevas respuestas o de RR a nuevos EE.

Aprendizaje asociativo: el cambio en la conducta que ocurre en la respuesta a un estímulo


depende de cómo haya sido presentado previamente con relación a otro estímulo. Representa
lo que aprendemos acerca de combinaciones de estímulos. Es importante aprender a predecir
eventos del ambiente y ciertos estímulos (EE) tienden a ir juntos.

El condicionamiento clásico es el mecanismo más simple por el cual los organismos aprenden
acerca de las relaciones entre estímulos, y a cambiar su conducta en función de estas. Sobre
esta base, los organismos aprenden a dar respuestas nuevas a los EE. por ejemplo: a través del
condicionamiento clásico aprendemos a predecir cuándo y qué podemos comer, cuando
podemos superar el peligro y cuando estamos seguros. También está involucrado en el
aprendizaje de nuevas RR emocionales tales como el miedo, el placer a EE inicialmente no
felicitaban esas emociones.

2. El paradigma del condicionamiento clásico.

Pavlov un fisiólogo que, en el año 1888 descubre los nervios que estimulan las secreciones
psíquicas del páncreas, estudio de la fisiología de la secreción de jugos gástricos en boca y
estómago. Desarrollo de modernas técnicas quirúrgicas.

Se hacía una serie de preguntas: “si le pongo comida al perro para que la tomé ¿cuánto tiempo
tardará está, actuando como un estímulo, en hacer que la boca y el estómago se agregue en sus
distintos jugos gástricos? ¿cuál es el mecanismo que une la introducción de comida en la boca
y la secreción de saliva? ¿cuál es la función que relaciona la cantidad de comida y la cantidad
de saliva secretada? cuando la comida llega al estómago, ¿cuánto tiempo tardará este en
secretar los ácidos necesarios para digerirla?

Había un fenómeno que interfería en sus estudios que eran las “secreciones psíquicas” ante
la comida o personas que alimentaban a perros, ya que, a medida que los perros se
familiarizaban con la situación experimental, comenzaban frecuentemente a salir varios
secretar ácidos gástricos tan pronto como Pavlov entraba en el laboratorio donde se encontraba
el perro. Las llamó así porque al principio creía que eran débiles a la actividad mental de los

1
perros. Después se dio cuenta que esas enojosas secreciones guardaban cierta semejanza con
los reflejos fisiológicos que se había dedicado a medir y decidió ponerse a estudiarlos.

Los primeros experimentos de Pavlov fueron:

- Curva A: después de introducir la comida en la boca del perro, la secreción de ácido


en su estómago aumenta y luego desciende durante un período de cuatro horas, como
se ve en la curva (A). Esta curva representa: lo primero que todos los secretado como
resultado directo de la estimulación de la comida en el estómago más y lo segundo todo
lo secretado antes de que la comida llegara al estómago (las secreciones psíquicas).
Pavlov quería medir estos dos componentes por separado.
- Curva B: para lograr aislar la curva de las secreciones directas introdujo comida, no
a través de la boca sino directamente al estómago mediante un tubo que se saltaba el
camino normal de la boca al estómago, (curva B): secreción que se producía tras la
estimulación directa del estómago por la comida.
- Curva C: predeterminar el segundo componente de la curva (secreción psíquica) se
utilizó un método de alimentación simulada: el perro tomaba la comida normalmente
masticándola y tragándola, pero no se permitía que llegara al estómago. Sin embargo,
se producía una secreción de jugos gástricos (curva c).
- Curva D: la curva d, es la suma de B Y C, es semejante a la curva a.

Por lo tanto, el experimento confirmó la suposición de Pavlov de que la secreción gástrica


total provenía casi en igual medida, de la estimulación directa que de la psíquica.

Pavlov quería estudiar si la salivación prematura era provocada solamente por la visión de la
comida en particular, o si cualquier otro estímulo, como, por ejemplo: un sonido, podría
provocar las iba seguido con suficiente frecuencia por la comida.

1. Incisión en la mejilla del perro, adosado un tubo de vidrio en glándula salivar.


2. Sonido de diapasón (7”-8”): RO.

2
3. Inmediatamente después, polvo de carne en la boca del perro: RO y salivación.
4. 10 ensayos de asociación.
5. Sonido aislado durante 30 segundos: aumento de la salivación tras 18 segundos.
6. Después de 30 ensayos: salivación inmediata.

El animal había aprendido a anticipar la comida. El sonido originalmente neutro suscitaba


ahora la salivación. A este proceso de forjar una red nueva conexión entre un nuevo estímulo
(como el sonido) y un reflejo ya existente (como la salivación al tener comida en la boca),
Pavlov lo denominó condicionamiento.

Por lo tanto, tenemos los siguientes elementos:

- Estímulo incondicionado (EI): cualquier estímulo intenso o potente que suscita de


forma regular a una respuesta no aprendida y medible (comida en el estudio de Pavlov).
- Respuesta incondicionada (RI): respuesta no aprendida inmedible suscitada de forma
regular por el estímulo incondicionado (salivación en el estudio de Pavlov).
- Estímulo condicionado (EC): estímulo originalmente neutro que antecede la
presentación del estímulo incondicionado. Inicialmente suscita reflejo de orientación
(sonido en el estudio de Pavlov).
- Respuesta condicionada (RC): respuesta aprendida que se asemeja a la respuesta
incondicionada (salivación en el estudio de Pavlov).
3. Condicionamiento excitatorio.
a. 3.1 Condicionamiento pavloviano excitatorio.
i. Elementos.

Ensayo de condicionamiento: cada una de las configuraciones entre el estímulo condicionado


y el estímulo incondicionado.

Intervalo interensayos: tiempo entre el final de un ensayo de condicionamiento y el comienzo


del siguiente.

Intervalo interestimular (ISI): tiempo entre el comienzo del estímulo condicionado y el


comienzo del estímulo incondicionado dentro de un mismo ensayo de condicionamiento.

ii. Procedimiento. (5)

Condicionamiento de demora corta.

- Estímulo condicionado(sonido) se presenta ligeramente antes que el estímulo


incondicionado (comida).

3
- Se consigue un buen aprendizaje asociativo.
- El estímulo condicionado (sonido) permanece hasta que aparece el estímulo
incondicionado (comida).

Condicionamiento demora larga.

- En este caso el estímulo incondicionado (comida) se demora entre 5- 10 minutos en


relación con el estímulo condicionado (sonido).

Condicionamiento de huella.

- El estímulo incondicionado (comida), no se presenta hasta que sea transcurrido el


tiempo desde la terminación del estímulo condicionado (sonido).
- Existencia de un tiempo vacío entre el estímulo condicionado y el estímulo
incondicionado (intervalo de huella).
- La introducción de este intervalo puede producir el aprendizaje de una respuesta
condicionada (salivación).

Condicionamiento simultáneo.

- Presentación estímulo condicionado (sonido)- estímulo incondicionado (comida) al


mismo tiempo.
- Máxima contigüidad temporal.

Condicionamiento retroactivo.

- El estímulo condicionado (sonido) se presenta tras el estímulo incondicionado


(comida).

4
iii. Medida de las RRCC

La conexión entre el estímulo incondicionado-respuesta y el estímulo condicionado son los


dos elementos básicos de cualquier experimento de condicionamiento clásico. En estos
esquemas se muestran su relación temporal. En los experimentos de Pavlov, el reflejo
condicionado era la salvación como respuesta ante un estímulo anteriormente neutro.

En la imagen que va a aparecer abajo las figuras B Y C muestran dos aspectos mensurables del
condicionamiento clásico, ambos estudiados por Pavlov:

- la figura B muestra cómo la respuesta de salivación va produciéndose cada vez más


pronto hasta que ocurre antes del estímulo incondicionado. Esta medición resalta la
latencia de la respuesta.
- La figura C se muestra la existencia de la respuesta, aunque se omita el estímulo
incondicionado. Esta medición resalta la magnitud de la respuesta.

Para que esto suceda, se presenta repetidamente la secuencia A

A medida que avanza el condicionamiento nos encontramos con que la latencia de la


respuesta ante el estímulo condicionado disminuye y su magnitud aumenta. Pavlov veía
el condicionamiento como el establecimiento de un nuevo reflejo por medio de la adición
de un nuevo estímulo a un grupo EE que son capaces de provocar una respuesta.

iv. Eficacia procedimientos de condicionamiento.

Otro factor importante: relación de señal o informativa entre el estímulo condicionado y el


estímulo incondicionado.

5
La respuesta condicionada se desarrolla más rápidamente con procedimientos en los que
el estímulo condicionado sirve como una buena señal o provee información fiable acerca de
la aparición del estímulo incondicionado (por ejemplo, procedimiento demora corta: el
estímulo incondicionado puede predecirse perfectamente a partir de la aparición del estímulo
condicionado, lo cual permite desarrollar rápidamente una asociación entre ellos).

El valor de la señal del estímulo condicionado se reduce a medida que se incrementa el


intervalo EC-EI.

El estímulo condicionado tampoco es un buen predictor en los procedimientos simultáneos y


de huella.

(Por ejemplo, el sonido de una sirena (similar a un estímulo condicionado) que señala la
presencia de un vehículo de emergencia (similar a un estímulo incondicionado).

b. 3.2 Condicionamiento pavloviano inhibitorio.

Hay numerosos estímulos aversivos que son imprevisibles: ataque de un ladrón que quiere
robarnos la cartera, agresión de una banda,etc. Por lo tanto, es muy improbable poder predecir
la aparición de un estímulo aversivo, y por lo tanto también su ausencia (discriminar periodos
de seguridad libres de estímulos aversivos). Las señales que predicen la ausencia de un
estímulo aversivo son estímulos condicionados inhibitorios (EC-). La inhibición
condicionada fue el primer tipo de relaciones de señal de orden superior descubierto e
investigado, el filólogo consideraba tan importante el condicionamiento de la inhibición
como el de la excitación. En el condicionamiento excitatorio, el estímulo condicionado se
convierte en señal de la presentación del estímulo incondicionado, en el inhibitorio, el estímulo
condicionado se convierte en señal de la ausencia del estímulo incondicionado. El Estímulo
Condicionado inhibitorio se denomina EC-

La Inhibición Condicionada fue el primer tipo de relaciones de señal de orden superior


descubierto e investigado. Pavlov consideraba tan importante el condicionamiento de la
inhibición como el de la excitación.

En el condicionamiento Inhibitorio el EC- informa al sujeto de que el EI no se va a presentar.


Tiene lugar sólo si hay contexto excitatorio que suele presentarse en el EI, en cuestión, es decir,
para que la ausencia de un EI sea significativa debe de ocurrir periódicamente en la situación,
el sujeto debe esperar a que aparezca el EI. De lo contrario la ausencia de EI carecería de interés
e significado. La ausencia de algo es psicológicamente significativa si por alguna razón se
espera que ese algo ocurra.

6
EJEMPLO GASOLINERA: cerrado, fuera de servicio o no entrar, proporcionan información
útil e influyen en la conducta sólo si indican la ausencia de algo que de otra forma esperaríamos.

No hay gasolina a la puerta de una tienda de plantas, no nos disuade de entrar a comprar una
maceta.

EJEMPLO RECOMPENSA ECONOMICA ESPERADA-INESPERADA.

i. Procedimiento: inhibición condicionada


- En los ensayos A+ el sujeto espera que aparezca el EI. El estímulo A es un EC+
(excitatorio)
- En los ensayos AB- no se presenta el EI y B se da en el contexto de la expectativa del
EI ante el estímulo A. Esto sirve para condicionar propiedades inhibitorias al estímulo
B (el estímulo A es un EC+ y el estímulo B es un EC-).
- A medida que se van alterando los dos tipos de ensayo de forma aleatoria, el estimulo
B va adquiriendo propiedades inhibitorias (EC-)
- Ejemplo: Semáforo rojo (EC+) que señala peligro (EI) Semáforo en rojo, pero presencia
de policía (EC-), que te indica que pases porque no hay peligro (no EI). Su presencia
inhibe o bloque la negativa a cruzar la calle con luz roja.

ii. Procedimiento: emergencia negativa EC-EI


- No se emplea EC+
- Solo aparece un EC- que está negativamente correlacionado con el EI (el EI es menos
probable tras el EC que en otro momento).
- De hecho, el EI aparece periódicamente de forma aislada, y el EC predice la ausencia
de EI (se convierte en EC-)
- Las claves contextuales del lugar donde se desarrolla el experimento actúan como EC+
- Ejemplo de niño que es agredido (EI) cuando no está el profesor. Sin embargo, cuando
está el profesor (EC-) no recibe agresiones (no EI)

7
iii. Procedimiento: inhibición diferencial
- En los ensayos A+, A se convierte en un EC+ por que se empareja con el EI
- En los ensayos B- se presta B sin el EI. Estos ensayos se alternan de modo que B se
convierte en inhibidor condicionado EC-
- En este caso B no se presenta con un EC+ ese papel lo desempeñan las claves
contextuales (contexto excitatorio)

4. El curso de la Asociación
- Adquisición: la presentación de un EC seguido de un EI hace que ambos elementos se
acaben asociando, y que el primero acabe provocando una RC mayor cuantos más
emparejamientos, hasta el límite (nivel asintótico).
- ¿El condicionamiento es reversible? ¿Se puede eliminar una vez consolidado? La
extinción es la reducción gradual de la fuerza de la RC hasta su eventual desaparición
como consecuencia de la presentación reiterada del EC sin el EI. Sin embargo, una vez
extinguida la RC por su exposición reiterada al EC sin el EI, la reaparición del EC tras
un periodo de tiempo sin su presencia ni la del EI vuelve a mostrar la capacidad de
provocar la RC. A esto se le llama recuperación espontánea.

5. Generalización y Discriminación

8
Pavlov observó que los estímulos parecidos al manejado en el condicionamiento producirán
salivación, sin necesidad de ser condicionados directamente. Se trata de la generalización.

- Gradiente de Generalización:

El Gradiente es la intensidad de la RC generada por un determinado elemento es mayor cuando


más se parece al EC original. Sin la tendencia a generalizar sólo podríamos aprender las
propiedades ligadas a este estímulo concreto mediante la experiencia directa con él, lo cual
no sería muy práctico. Los elementos parecidos suelen tener consecuencias similares. Por eso,
si nuestra tienda de campaña ha sido embestida una sola vez, en el futuro procuraremos
ponernos a salvo en cuanto volvamos a acercarse, aunque sea a mucha distancia, e incluso
cuando vamos que se acerca cualquier otro objeto con rabo, cuernos y cuatro patas que le
llegan al suelo. Por razones prácticas es razonable que la respuesta no se restrinja al estímulo
preciso encontrado en la situación de condicionamiento

Utilizando un tono de 1000 Hz como EC: También había respueta ante tonos de 1.100 Hz,
1.200, 1.300 … y .os de 900, 800, 700 Hz.

OTROS FACTORES QUE INFLUYEN:

• El paso del tiempo: La extrapolación de la RC tiende a aumentar (la curva es más


plana) conforme pasa el tiempo entre la experiencia de emparejamiento EC-EI y el
encuentro de los nuevos elementos parecidos al EC, seguramente debido a que el perfil
de éste se desdibuja progresivamente, por olvido.
• El encuentro de los nuevos estímulos en un contexto diferente al del entrenamiento
disminuye la generalización, seguramente porque el cambio de contexto añade
diferencias críticas a las ya existentes entre los estímulos implicados.
- Discriminación al Estimulo

La generalización tiene límites: la tendencia contraria es la discriminación, que consiste en


responder de forma distinta a estímulos diferentes. Se trata de no responder de la misma forma
a estímulos parecidos

9
Para ello se lleva a cabo un entrenamiento en discriminación, en el que se alterna un EC+
asociado a comida y un EC- que no va seguido de EI. Con el entrenamiento, la respuesta se
acaba restringiendo al EC+. La dificultad de discriminar y experimento de neurosis
experimental de Pavlov.

Por ejemplo, no es adecuado responder corriendo y experimentando miedo ante una vaca
lechera, y sí es adecuado hacerlo ante una vaquilla brava.

• En función de la localización de los estímulos

Razran (1995). Localización EC-EI:

A) Condicionamiento interno-extroceptivo
- EC interno (globo en estómago de perro lleno de agua fría 8º-12ºC)
- EI externo (comida) - RI (salivación)
- Tras 6-9 ensayos, se produce RC de salivación ante la infusión de agua.
B) Interno-interoceptivo:
- EC interno (Inflar globo estómago: sensación de distensión)
- EI interno (Mezcla de dióxido de carbono + aire a través de tráquea)
- RI (Respuesta de defensa respiratoria)
- Tras 3-6 emparejamientos se producía una RC de defensa respiratoria ante la distensión
estomacal)
C) Externo-introceptivo
- EC externo (observar un dial móvil)
- EI interno (Inflar sonda introducida en vejiga)
- RI (necesidad de orinar)
- RC (al mover el dial el sujeto sentía necesidad de orinar)
D) Externo-exteroceptivo:
- Experimento clásico de Pavlov en el que tanto el EC como el EI son externos

10
4. CONDICIONAMIENTO CLÁSICO. MECANISMOS

1. Factores que determinan la eficacia de los estímulos condicionados e


incondicionados.
1.1. Reactividad diferencial de los estímulos

Según Pavlov, la diferencia fundamental entre ambos para que se produzca


condicionamiento es que uno provoque una respuesta desde el principio y el otro no.
La identificación de los EC o EI es relativa.

Por ejemplo: Sacarina (EC)+Ciclofosfamida (EI) en aversión condicionada sabor. Luz


(EC) + Sacarina (EI) en seguimiento de signo.

1.2.Novedad de los ECC y los EEII

Si el EC o EI son familiares, el aprendizaje se desarrolla con más lentitud que sin son
novedosos:

- Efecto de preexposición al EC o inhibición latente: la simple exposición a un


EC puede retrasar el establecimiento posterior de una asociación entre ese EC
y el EI. Interpretado en términos atencionales: la preexposición produce un
descenso en la atención que el sujeto le presta al EC, y el condicionamiento
posterior es más difícil.
- Efecto de preexposición al EI. Efecto similar al anterior. Interpretado en
términos de bloqueo por el contexto: se establecen asociaciones contexto-EI que
luego bloquean las relaciones EC-EI.

Interferencia asociativa: la preexposición al EC o al EI disminuye la capacidad d de


estos estímulos para participar en nuevas asociaciones.

Interferencia de memoria: La RC resulta alterada porque los sujetos recuerdan lo


sucedido en ambas fases del experimento: haber sido preexpuestos de forma aislada al
EC o al EI, y luego asociados. El recuerdo de la preexposición no estimula la RC. Los
procedimientos que reducen este recuerdo fortalecen la RC

1.3.Intensidad y saliencia de los estímulos

1
La respuesta condicionada es más fuerte si se emplean un EC o EI intensos, sucede lo
mismo con estímulos salientes con gran significación o perceptibilidad (cuanto más
intensos sean los estímulos más salientes y más se asocian). Formas de incrementarla:

- Aumentando la intensidad del estímulo, éste llama más la atención.


- Haciéndolo más relevante en relación a necesidades biológicas del organismo
cuando deprivamos a los sujetos.
- Haciendo que un estímulo condicionado de laboratorio se parezca más al tipo
de estímulo de su ambiente natural
1.4.Relevancia o pertinencia (García y Koelling)

Se emplearon dos clases de estímulos condicionados (EECC) (sabores y claves


audiovisuales) y dos clases de estímulos incondicionados (EEII) (shock y enfermedad)

Se esperaba que se adquiriese el mismo tipo de aversión a los Estímulos Condicionados


empleados, ya que se asociaran con descargas o con enfermedad. (no todo estímulo
condicionado se asocia con facilidad que un estímulo no condicionado).

Procemiento: Las ratas bebían de un tubo antes de la administración de los EEII. El


tubo se llenaba de agua salada o dulce. Además, al lamer el tubo se activaba un estímulo
audiovisual breve (chasquido de relé y destello de luz). De este modo, el EC era un E
complejo.

Después de estar expuestos a este EC complejo, los animales recibían bien una descarga
a través de la rejilla metálica del suelo, o se les hacía enfermar exponiéndoles a una
radiación o con inyecciones de una droga. (ciclofosfamida).

En el experimento de García y Koelling (1966), en la fase de prueba (gráfica) se


presentaba tan sólo a la ratas los Estímulos Condicionados (Sabor o Claves
2
Audiovisuales), y se comprobaba que: La ratas que habían experimentado Enfermedad
como consecuencia de la inyección de ciclofosfamida (EI), bebían muy poco agua
cuando éste tenía sabor (EC1), y bebían mucha agua cuando aparecían las claves
audiovisuales (EC2); Sin embargo, aquellas ratas en las que se había empleado una
Descarga eléctrica como EI, bebían mucha agua cuando éste tenía sabor (EC1) y apenas
bebían cuando se les presentaban las claves audiovisuales (EC2). Es decir, las ratas
condicionadas con el malestar aprendieron una mayor aversión hacia las claves de
sabor que hacia las audiovisuales. Por el contrario, las ratas condicionadas
mediante descargas adquirieron mayor aversión a las claves audiovisuales que a
las gustativas.

Otros ejemplos

- Las palomas asocian con más facilidad la comida con un estímulo visual
que con uno auditivo. Cuando se emplean descargas, es más probable que se
condicione la señal auditiva que la visual (Shapiro, Jacobs y Lolordo, 1980).
- Aprendizaje del miedo en personas: se asocian con más facilidad fotos de
serpientes y arañas con un choque que fotos de flores y casas (Öhman y cols.,
1985).
- Monos Rhesus: el miedo observacional se adquiere más fácil si el mono
muestra miedo hacia una serpiente de juguete que hacía unas flores. Sin
embargo, ambos estímulos condicionados funcionan igual cuando el estímulo
incondicionado empleado es comida
1.5.Concepto de fuerza biológica

En el concepto de fuerza biológica en todos los ejemplos de condicionamiento clásico


discutidos hasta ahora, el estímulo condicionado no provocaba antes del
condicionamiento respuestas tan intensas como el estímulo incondicionado. Pávlov Era

3
consciente de la gran diferencia de fuerza biológica entre EECC y EEII antes de
comenzar el condicionamiento, y calculó la diferencia necesaria para seleccionar los
EE como condicionados o incondicionados.

Pavlov sugirió que para que un estímulo se condicionase tenía que ser biológicamente
más débil que el estímulo incondicionado con el que se iba a emparejar. Al hablar de
“estímulo biológico más débil” se refería a aquel que inicialmente provocara menos
respuestas y de intensidad más baja.

Sin embargo, es posible que el estímulo incondicionado sea necesario para que aparezca
una respuesta observable, pero puede no ser necesario para que se establezca una
asociación entre eventos. Hay una serie de fenómenos donde queda cuestionada la
necesidad del estímulo incondicionado: el condicionamiento de orden superior,
contra condicionamiento y precondicionamiento sensorial.

1.6.Condicionamiento de orden superior

Según el criterio señalado, un estímulo puedo hacer el papel de estímulo


incondicionado después de condicionarse. Por ejemplo, un tono (EC1) que se
empareja repetidamente con la comida (EI). Tras un número suficiente de ensayos el
tono (EC1) llega a provocar salivación (RC). Debido a esta asociación, acaba
provocando reacciones biológicas más fuertes que los tonos o luces normales, porque
el animal se activará cuando se presente.

Este tono (EC1) a su vez es capaz de condicionar la salvación (RC) a otros estímulos
(EC2) que inicialmente no provocaban esa respuesta. Por ejemplo, al emparejar ese
tono con una luz novedosa, la luz acaba produciendo también salivación. Este
condicionamiento se observa con frecuencia y se denomina de segundo orden. Si a su
vez esa luz sirviera como base de un nuevo condicionamiento estaríamos ante un
condicionamiento de tercer orden.

La existencia del condicionamiento de segundo orden amplía enormemente la variedad


de situaciones en las que se puede producir un condicionamiento clásico. Ya que no es
estrictamente necesario contar con un estímulo indirecto primario, sino disponer
de un estímulo previamente condicionado. Por ejemplo, el dinero

4
1.7.Contracondicionamiento

A pesar de que la mayoría de los casos se cumple el criterio de la fuerza biológica


diferencial para establecer el condicionamiento, esto no sucede siempre. De hecho, dos
estímulos pueden asociarse entre sí cuando inicialmente los dos provocan
respuestas intensas o tenga una fuerza biológica considerable. Por ejemplo, un EC
inicialmente emparejado con comida (EI1) y qué hay adquirido la capacidad de
provocar salivación condicionada, puede convertirse en un EC aversivo capaz de
provocar una RC defensiva emparejándolo repetidamente con una descarga eléctrica
(EI2), la inversa. La demostración clásica de este fenómeno se denomina contra
condicionamiento.

Es siempre más lento que el condicionamiento con un estímulo neutro con el que el
sujeto no haya tenido ninguna experiencia previa, ya que los emparejamientos del
nuevo EI2 con el EC deben contrarrestar en primer lugar los efectos opuestos del
condicionamiento anterior.

La esencia del contracondicionamiento es el cambio de valor motivacional de un EC


al emparejado con un EI2 de signo motivacional opuesto al del EI1 con el que fue
emparejado originalmente. Una de las aplicaciones más importantes es la técnica de
desensibilización sistemática para el tratamiento de problemas de ansiedad (ver
desensibilización sistemática en tema 5).

(asociar un estímulo que produce miedo a un estado incompatible por ejemplo el miedo
y estado tranquilo)

1.8. Precondicionamiento Sensorial

También se puede aprender a asociaciones entre dos estímulos, cada uno de los
cuales provoca solo una suave respuesta de orientación antes del
condicionamiento. Los estímulos pueden ser dos claves visuales, por ejemplo, un
triángulo (EC1) se presenta cerca de un cuadrado (EC2). Ni el triángulo ni el cuadrado

5
provocan respuestas nuevas. En la segunda fase tiene lugar el condicionamiento, y el
EI (comida) se me pareja con un EC1 (triangulo). Como consecuencia, se condiciona
al triángulo una RC de salivación y acercamiento.

Después de la presencia del cuadrado (EC2) también provocará esa RC de salivación y


acercamiento. De este modo, la asociación de 2 claves audiovisuales inocuas se hace
evidente cuando 1 de los estímulos se condiciona para provocar una respuesta intensa.

(POR EJEMPLO CARACOL CARACOLA)

Los fenómenos de precondicionamiento sensorial, contracondicionamiento y


condicionamiento de segundo orden son 3 fenómenos que demuestran el condicionamiento
clásico es un mecanismo general de asociación utilizado para establecer relaciones entre
distintos tipos de estímulos, relaciones que no parecen estar limitadas por la naturaleza
de los estímulos empleados.

2. La naturaleza de la Respuesta Condicionada

Siguiendo el modelo clásico de sustitución del estímulo de Pavlov, la respuesta condicionada


suele describirse a menudo como similar a la respuesta incondicionada, por ejemplo, en
condicionamiento salival, condicionamiento palpebral,etc. Sin embargo, esto no es una Ley
General de condicionamiento clásico. La respuesta condicionada puede ser diferente de la
respuesta incondicionada, De hecho, puede ser la opuesta a la respuesta incondicionada
(modelo de tolerancia a las drogas de Siegel, para saber más 2.2 y 2.3) o depender del tipo de
estímulo condicionado utilizado.

2.1.Modelo de sustitución del estímulo (Pavlov)

El estímulo condicionado adquiere la capacidad de funcionar de modo similar al


estímulo incondicionado; activa los circuitos neuronales que antes activaba el
estímulo incondicionado, ilícita la respuesta similar a las del estímulo incondicionado.
El establecimiento de nuevas conexiones neuronales. El condicionamiento permite
al estímulo condicionado elicita la respuesta incondicionada, sustituyendo al
estímulo incondicionado.

6
El estímulo incondicionado es el factor determinante de la respuesta condicionada. La
respuesta incondicionada ante la comida es picotear con el pico abierto (pulso el tamaño
del grano) y la RI ante el agua es picotear con el pico cerrado y una vez dentro del agua
absorberlo. Pues bien, la respuesta condicionada ante un estímulo condicionado (luz)
asociado a comida era picotear con el pico abierto, y ante ese mismo estímulo
condicionado (luz) asociado al agua picotear con pico cerrado. El estímulo
condicionado con la comida provocaba picoteos relacionados con la comida, y el
estímulo condicionado con el agua provocaba picoteo y relacionados con el agua.

2.2.Aprendizaje E-R frente a aprendizaje E-E

La creencia común sobre él condicionamiento clásico supone que se produce el


aprendizaje de una respuesta condicionada ante un estímulo condicionado (E-R). Sin
embargo, en muchos casos del condicionamiento clásico parece implicado un
aprendizaje E-E en lugar de uno E-R.

Según el mecanismo de aprendizaje de E-E (modelo renovado d la sustitución del


estímulo), los animales aprenden dos cosas en él emparejamiento repetido de un EC y
un EI:

- aprenden una asociación entre el EC y el EI


- forman una imagen, o representación, del EI.

7
La respuesta condicionada depende de estos dos factores, el estímulo condicionado
provoca la respuesta condicionada por su asociación con la representación del estímulo
incondicional. Expresado informalmente, esto significa que el sujeto recordará el
estímulo incondicionado al encontrarse con el estímulo condicionado lo que hará el
sujeto cuando se le estimula a “pensar” acerca del estímulo incondicionado dependerá
de su motivación para responder ante este (De si tiene valor para el sujeto o está
devaluado).

Tal y como señala en el gráfico, lo que sucedía en este trabajo de Holland y Rescolta
(1975) es que la fase de prueba, en el grupo experimental, la presentación del estímulo
condicionado no elicitaba la respuesta condicionada. Sin embargo, el grupo de control,
en la fase de prueba la presentación del estímulo condicionado sí elicitaba la aparición
de una respuesta condicionada. De este modo los autores concluyeron que el
elemento determinante que explica la aparición de la respuesta condicionada es la
representación del estímulo incondicionado. En el grupo en el que la ante la
representación del estímulo condicionado los sujetos no estaban asociados con la
representación de un estímulo incondicionado fuerte, esta ausencia de representación
del estímulo incondicionado producía la ausencia de la respuesta condicionada. En el
grupo en el que la representación del estímulo condicionado estaba asociada a una
imagen de un estímulo incondicionado fuerte, esta imagen da lugar a una respuesta
condicionada

3. ¿Cómo se asocia el EC y el EI?

En los apartados previos el principio de contigüidad tenía algunas dificultades para explicar el
condicionamiento clásico. Igualmente, en el trabajo de García y Koelling (1966) veíamos que
el aprendizaje asociativo no solo dependía de que el estímulo condicionado y el estímulo

8
incondicionado se presentarán juntos, sino de factores como la relevancia o pertinencia
biológica o la similitud de los estímulos. Comenzaron aplicarse los principios de
procesamiento de la información al análisis del condicionamiento clásico (Rescorla, 1967).
Sin embargo, el ataque empírico más fuerte a la ley de la contigüidad llegó con los estudios
sobre el efecto bloqueo y la formulación del concepto de contingencia.

3.1.El efecto del bloqueo

El efecto de bloqueo fue un descubrimiento descubierto por Kamin (1969)


originalmente el efecto bloqueó utilizando un procedimiento de supresión
condicionada en ratas, el fenómeno puede ilustrarse mejor con un ejemplo
hipotético en la versión condicionada al sabor. Imaginemos que Roberto tiene alergia
a langosta y se pone ligeramente enfermo cada vez que la come. A causa de esas
experiencias, adquiere una aversión al sabor de la langosta. Sin embargo, continúa
comiendo langosta en ocasiones especiales cuando no le queda otro remedio. En una
de estas ocasiones les sirven langosta con verdura cocida al vapor que no recuerda haber
comido antes. Come algo de verdura y también algo de langosta. La verdura sabe
bastante buena, pero él termina con un ligero malestar después de la comida (ese
malestar lo vamos a asociar a langosta a pesar de que hay dos estímulos condicionados
que son “buenos”, sabor langosta y sabor verdura, añadiéndole el sabor langosta y el
sabor verdura no hay un condicionamiento clásico porque el sabor ya existía, ya se ha
aprendido que El Salvador langosta es lo que te sienta mal por eso es casi imposible
que El Salvador verdura te siente mal).

dado el historial de la mala reacción a langosta, probablemente atribuirá su enfermedad


a está y podría no adquirir una versión al a verdura. En esta situación, la presencia de
un sabor condicionado previamente (langosta) bloquea el condicionamiento de un
sabor nuevo (la verdura) incluso aunque el sabor nuevo estuviese igual de
estrechamente emparejado con el malestar gástrico (EI).

Kamin 1969: la relación de señal entre el estímulo condicionado (verdura) y el


estímulo incondicionado (malestar) puede deshacerse presentando el estímulo
condicionado (verdura) junto a otra señal estímulo condicionado dos (langosta)
ella predice el estímulo incondicionado (malestar). La presencia de otras claves
(langosta) estuvieron condicionadas previamente con un mismo EI (malestar), influyen
sobre lo que aprenden los sujetos acerca de un estímulo condicionado (verdura). De

9
este modo el estímulo condicionado (verdura) es redundante, con lo que se desarrollará
poca respuesta condicionada, no se condicionará, es decir se bloqueará su capacidad de
condicionarse.

3.2.La contingencia EC-EI

Rescorla (1967) descubrió el modelo de celular relaciones de señal:

1. la calidad de un estímulo como señal de otro depende no solo del número de


veces en que los dos estímulos van emparejados, sino también en la cantidad de
veces que se dan por separado.
1. Las relaciones de señal no necesitan ser siempre positivas también puede ser
negativas. Un estímulo puede ser señal de la ausencia de otro. (el EC puede
informar de que viene el EI pero muchas veces tmpc pueda venir)

Estas dos ideas se resumen en el concepto de contingencia entre un estímulo


condicionado y un estímulo incondicionado.

La contingencia entre los estímulos condicionados e incondicionados se determina a


partir de la comparación de 2 probabilidades: la probabilidad de que el EI se de junto
al EC, simbolizada como p (EI/EC) y la probabilidad de que el EI se ve en ausencia
de EC, simbolizada como p (RI/ no EC). Según este modelo no se puede predecir lo
que un organismo va a aprender a partir de la exposición de un EC emparejado con un
EI cierto número de veces. Por ejemplo, supongamos que a un perro se le presenta un
tono cuatro veces y comida dos veces hay 3 posibilidades de lo que puede aprender.

A) nunca se le Da comida en ausencia del tono; existirá una contingencia positiva


débil, y el perro aprenderá a salivar ante el tono. Condicionamiento excitatorio

- Esto ilustra una contingencia positiva perfecta entre el EC y el EI: el EI ocurre


con toda seguridad una vez que el EC ha ocurrido. Así pues, p (EC/EI)= 1. Por

10
el contrario, es absolutamente seguro que el EI no se dará si el EC no se ha dado
aún. Así pues, p (EI/ noEC) = 0. Esas dos probabilidades definen una
contingencia positiva perfecta. Este caso es un caso extremo. Podemos
predecir el EI a partir del EC siempre y cuando el EI tenga más probabilidad de
aparecer con el EC que sin él. Así pues, se dice que existe una contingencia
positiva entre el EC y el EI siempre y cuando p (EI/EC) > p (EI/no EC). P. E.
LOS CAZADORES DE CIERVOS hacen uso de una contingencia positiva
imperfecta cuando predicen la presencia del ciervo a partir de la visión de sus
excrementos. No se ve invariablemente un ciervo cuando se encuentran
excrementos de ciervo. Sin embargo, existe una contingencia positiva entre los
dos hechos, porque es más probable localizar ciervos en áreas donde haya
excrementos que en otros lugares
B) La contingencia puede ser cero cuando el estímulo incondicionado aparezca
en una ocasión asociado al estímulo condicionado y en otra aislado. El perro
aprenderá a no hacer nada en presencia del tono. IMPREDECIBILIDAD

- La contingencia nula es la probabilidad de que se dé el EI con él EC es la


misma que sin el EC. No es posible la predicción de un hecho a partir de otro
estímulo. P. E. Aunque por la mañana amanezca el cielo despejado, no se puede
predecir a partir de ahí que va a continuar despejado todo el día. Hay días que
empiezan siendo agradables y luego se vuelven desapacibles o cielos despejados
que después se nublan. Por tanto, las coincidencias ocasionales de días buenos
tras mañanas soleadas no son suficiente para asociar el cielo despejado con el
buen tiempo.
C) Se alimenta al perro con más frecuencia en ausencia del tono que
inmediatamente después de él; el tono es una señal de ausencia de comida.
CONDICIONAMIENTO INHIBITORIO

11
- La contingencia negativa, es más probable que EI se presente en ausencia de
EC que en su presencia. El EC predice la ausencia del EI. Por ejemplo, Los
médicos utilizan los síntomas de peso, presión sanguínea y ritmo cardíaco
normales para predecir la ausencia de enfermedad, ya que es menos probable
que estén enfermas aquellas personas que presentan valores normales que
aquellas cuyo peso, presión sanguínea y ritmo cardíaco son normales.

Espacio de Contingencia EC-EI

3.3.El modelo de Rescorla y Wagner (1972)

En este modelo el aprendizaje se entiende como el establecimiento de conexiones


entre las representaciones mentales de los estímulos. Los elementos fundamentales
son la fuerza asociativa y la sorpresivIdad

12
- la fuerza asociativa: fuerza de las conexiones entre representaciones
mentales (grado hasta el que un sujeto cree que la causa potencial o EC está
relacionada con un determinado efecto o EI). Los cambios en esta fuerza
asociativa dependerán de la sorpresa.
- La sorpresividad, Un hecho es sorprendente si lo que realmente sucede (por
ejemplo aparece un EI) es diferente de lo que esperábamos (no aparece
ningún estímulo), por tanto la eficacia del EI, depende de la diferencia entre el
EI y lo que el sujeto espera de acuerdo con la fuerza productiva de todos los
estímulos presentes en la situación: la aparición de un EI inesperadamente
grande es la base del condicionamiento excitatorio. La aparición de un EI
inesperadamente pequeño es la base del condicionamiento inhibitorio

Una respuesta condicionada intensa indica una fuerte expectativa de que el estímulo
incondicionado aparecerá; una respuesta condicionada débil indica una baja expectativa
de la presencia del estímulo incondicionado.

Se concibe el aprendizaje como un ajuste de las expectativas a lo que realmente


sucede:

- Si las expectativas no se corresponde la precisión con el EI que se va a


presentar, se reajustan.
- Este reajuste de la expectativa continúa hasta que coinciden las expectativas
y los resultados de los ensayos de condicionamiento.
- El aprendizaje cesa cuando deja de existir discrepancias entre las
expectativas y resultados
- Si podemos predecir perfectamente el estímulo incondicionado a partir de la
presencia del estímulo condicionado hemos adquirido un conocimiento
completo de la relación de señal entre esos estímulos, y ya no se va a producir
más aprendizaje acerca de la asociación entre los mismos.

El modelo de Rescorla y Wagner estimuló el desarrollo de muchas investigaciones y llevó


al descubrimiento de muchos fenómenos importantes en CC que de otro modo no se
hubieran investigado. Pero el éxito del modelo no ha sido completo:

- Resultaba incorrecto el análisis de la extinción de la inhibición condicionada.


- La extinción no es lo opuesto a la excitación, o vuelta al valor asociativo 0. Parece
involucrar una nueva relación entre EC-EI.
13
- En ciertas situaciones el mismo EC puede tener propiedades tanto excitatorias como
inhibitorias.
- Dificultad para explicar hallazgos recientes en paradigmas de aversión al olor y sabor.

Modelos alternativos reducción EI.

Teoría del oponente condicionado de Schull (1979). Se basa en la teoría del proceso
oponente. Cuando el EC se empareja con un EI, provoca diversas RRCC, una de las cuales
produce efectos fisiológicos que se oponen o compensan los efectos del EI. A medida que
avanza el condicionamiento, aumenta la capacidad del EC para provocar esta respuesta
oponente condicionada, que reduce cada vez más el impacto del EI. Eso sucede en la asíntota:
se reduce el EI porque el EC produce una fuerte R oponente condicionada, no porque el EC
haga que el EI deje de ser sorprendente.

El modelo de Rescorla y Wagner fue reformulado matemáticamente con más precisión


posteriormente por Wagner a partir de los años 80.

Modelo reducción EC de Pearce y Hall. Es el EC el que pierde notoriedad a medida que el


EI es predecible y pierde sorpresividad. Disminuye la capacidad del EC para asociarse al EI.

14
TEMA 5: CONDICIONAMIENTO O CLÁSICO. APLICACIONES

1. La digestión
La respuesta condicionada digestiva: secreción de insulina como respuesta a sabores dulces.
La insulina interviene en la digestión de los azúcares. Es liberada por el páncreas como RI
a la presencia de azúcar en el tracto digestivo. La presencia de azúcar en el estómago e intestino
delgado va precedida siempre por el sabor de azúcar en la boca. El sabor del azúcar puede
actuar como EC que acaba elicitando la RC de liberación de insulina de modo
anticipatorio.
Esta RC anticipatoria también puede producirse cuando el sujeto ingiera un edulcorante
artificial (sacarosa). Si se ingiere azúcar real, la insulina liberada se utiliza en la digestión del
azúcar, pero si no hay azúcar que digerir se produce un aumento exagerado de la cantidad de
insulina en sangre que origina la caída del nivel de azúcar de sangre (sensación de
“embriaguez” que se produce después de tomar una bebida dietética con el estómago vacío).
(eso es porque el exceso de insulina sin metabolizar produce un estado de mareo).
El modelo de atracón condicionado de A. Jansen, señala que esta RC o fase cefálica, podría
facilitar la aparición de conductas de ingesta descontrolada en los casos de bulimia nerviosa y
otros TCA.
El descenso del nivel de azúcar en sangre (RC al sabor dulce) puede extinguirse si el sujeto
se expone durante un tiempo largo a edulcorantes artificiales (Deutsch, 1974)
2. Control de sensibilidad al dolor
Los mecanismos neurológicos que intervienen en la percepción del dolor también pueden estar
influidos por el condicionamiento clásico.
La exposición a situaciones dolorosas o estresantes (EI) produce liberación de endorfinas
(RI) (substancias analgésicas) que pueden condicionarse a los estímulos condicionados
que señalan la presencia del estímulo aversivo. Fanselow y Baackes (1982):
- EC: Cámara especial
- EI: Descarga eléctrica
- RC: paralización de las ratas; disminución sensibilidad al dolor (liberación de
endorfinas)
Estos resultados no se obtenían cuando las ratas se exponían a estímulos que no se habían
condicionado a la descarga. Investigaciones posteriores indican que la reducción de la
sensibilidad al dolor estimulada por la exposición a un EC condicionado el miedo, estaba
originada por los mismos procesos neurofisiológicos que se activan con una inyección de
morfina.
Una forma de evaluar la sensibilización al dolor es hacer incidir un haz de luz que produce
calor en la cola de la rata y medir el tiempo que tarda en retirarla.
3. Supresión del sistema inmune

1
El sistema inmune interviene en la movilización de las defensas fisiológicas (anticuerpos)
contra gérmenes y sustancias extrañas, para que no causen enfermedades. Las
regulaciones del sistema por reacciones químicas, hormonales y neurológicas:
psiconeuroinmunología.
Los estímulos condicionados pueden influir en el sistema inmune.
Ader y Cohen en 1982 llevaron a cabo trabajos ligados a experimentos de aversión
condicionada al sabor, descubriendo causalmente los siguientes resultados
- EC: sacarina
- EI: ciclofosfamida
- RI: malestar gástrico y supresión del sistema inmune (interfiere en la producción de
anticuerpos)
La fase de prueba consistía en una inyección de tejido extraño; a continuación, se medía la
producción de anticuerpos que generaba el organismo como defensa de la infección. Si se
exponía a las ratas de nuevo al EC, su respuesta inmune ante tejidos extraños quedaba
suprimida.
Estudios ligados a experimentos de aversión condicionada al sabor. De hecho, la
Ciclofosfamida es el EI habitualmente empleado para provocar malestar gástrico
4. Aversión a la comida en humanos
Muchas de las aversiones a los sabores en humanos pueden haberse adquirido mediante el
condicionamiento clásico:
- Suelen venir de un emparejamiento entre la comida y la enfermedad, más que de
un emparejamiento simultáneo o hacia atrás.
- Suele producirse en un solo ensayo, aunque la enfermedad se retrase varias horas
después de la ingestión de la comida.
- Es un proceso independiente de los procesos de pensamientos racionales: un
porcentaje de sujetos manifiestan estar seguros de que su enfermedad no está causada
por la comida.
En La Quimioterapia al sujeto le son administradas grandes dosis de drogas que le debilitan.
Se producen náuseas como efecto secundario. Puede funcionar como EI que se condicione
a la comida (EC) ingerida antes de una sesión terapéutica, y se adquiera una aversión
condicionada (RC) al sabor. Según Bernstein (1978) así sucedía en pacientes de cáncer
(adultos y niños) que adquirían aversiones a un sabor en concreto de helado cuando se ingería
antes de una sesión de quimioterapia. Cabe destacar la modificación de horarios de comida de
acuerdo con sesiones de quimioterapia y empleo de comidas que resulten muy familiares y
suaves, para que no se asocien con el malestar subsiguiente. A pesar de que la enfermedad
no esté causada por la comida, se pueden adquirir aversiones condicionadas
5. Terapia de aversión al alcohol
En el condicionamiento aversivo puede tener efectos terapéuticos beneficiosos. Se trata de
asociar el olor y sabor del alcohol con sensaciones gástricas desagradables
- EC: olor y sabor de la bebida alcohólica

2
- EI: inyección de emetina
- RI: náuseas producidas por emetina
El tratamiento de aversión condicionada para el alcoholismo surge en 1935 en el Hospital de
Shadel de Seattle, en Washington que son 5 ensayos de condicionamiento y condicionamiento
de apoyo tras varias semanas después, comenzaron Lemere y Voegtlin en 1959 que
obtuvieron un 65% de abstinencias en seguimiento de un año y un 38,5% de abstinentes a los
cinco años
En la revisión de eficacia de Wiens y Menustik (1983) 63% de abstinencia en un seguimiento
de un año y 33% a los 5 años:
- tanto los hombres como mujeres responden igualmente bien al tratamiento.
- el éxito no depende del nivel de educación, del estatus en el empleo, del tipo de empleo,
ni de la historia anterior de tratamiento por alcoholismo.
- los hombres tenían más probabilidades de mejorar que los jóvenes.
- los hombres casados respondían mejor al tratamiento que los solteros
En la actualidad se emplea el “Antabús” como Estímulo Incondicionado en las fases
iniciales del tratamiento de desintoxicación física de alcohólicos, como medida voluntaria para
desincentivar el consumo de sustancia
6. Técnica del “fumar rápido”
La técnica aversiva de fumar rápido consiste en fumar rápidamente un cigarrillo tras otro hasta
que la sensación sea tan desagradable que incluso llegue a provocarse la nause. La eficacia es
solo a corto plazo, aunque mejora su eficacia de un programa de tratamiento psicológico con
más componentes.
7. La conducta emocional: desarrollo de fobias
Una fobia es un miedo intenso para el que generalmente no existe una base racional, puede
llegar a ser muy incapacitante. Existen varios tipos de fobia, la fobia simple, la social, la
agorafobia, el estrés postraumático, etc.
Existen diversas líneas de investigación sobre la adquisición y desarrollo de fobias en base a
procesos de condicionamiento clásico. Destaca el experimento de Watson y Rayner en 1920
En este experimento con un saludable niño de 9 meses, el pequeño Albert, inscrito en una
guardería diurna, se empleó como EC una rata blanca que provocó originalmente en el niño
un reflejo de orientación y de tender la mano. Al tender Albert la mano hacia la rata, se le aplicó
el EI de hacer sonar una barra de acero golpeándola con un martillo, lo cual provocó el
reflejo de sobresalto, así como llanto (la RI). Al cabo de 6 ensayos, la simple vista de la rata
(EC) bastaba para provocar llanto y evitación. Este efecto se generalizó a los conejos
blancos, así como a los perros y pieles de animales de ese color. Cuando Watson y Rayner
consideraban varios procedimientos para suprimir esta fobia condicionada, el pequeño
Albert fue retirado de la guardería por su madre.
8. Terapia conducta. Origen de la desensibilización sistemática
La propuesta de Watson y Rayner para el tratamiento del miedo condicionado “del
pequeño Albert”: aunque la súbita aparición de la madre del niño impidió a los autores deshacer

3
la fobia condicionada que habían inducido, lograron elaborar un plan de tratamiento que
seguían aproximadamente estas líneas: el niño sería sentado en una silla alta y se pondrían a
su alcance trozos de comida que le gustara mucho que absorbieran su atención. Cuando
empezara a comer, se colocaría silenciosamente una rata en un rincón distante de la habitación;
poco a poco, la rata se acercaría. En el momento en que la atención del niño pareciera dividirse
entre la rata y la ingestión de comida, se disminuirá su velocidad de acercamiento, hasta que el
niño volviera a comer con muchas ganas. En el momento en que la atención del niño pareciera
dividirse entre la rata y la ingestión de comida, se disminuirá su velocidad de acercamiento,
hasta que el niño volviera a comer con muchas ganas. En caso de desarrollarse todo de
acuerdo con el plan, el niño finalmente acabaría comiendo con una mano y acariciando
la rata con la otra.
En términos conductuales la estrategia consiste en un contracondicionamiento. Desarrollado
por Wolpe (1958) en su obra Psychotherapy bu Reciproal Inhibition Como ejemplo:
- Rata (EC aversivo) que provocaba una respuesta de miedo (RC) se condiciona ahora
con otro estímulo de signo motivacional opuesto (aperitivo).
- Alimento (EI) que provoca la respuesta de comer (RI), hasta que la presencia de la rata
(EC) acaba provocando una reacción emocional apetitiva asociada a comer (RC) y deja
de provocar miedo.
- Aunque los autores nunca tuvieron oportunidad de aplicar esta propuesta, Mary
Cover Jones (1924) plato con éxito fobias de evitación mediante estos procedimientos
de contracondicionamiento.
9. Terapia de conducta y tratamiento de ansiedad: desensibilización sistemática
(DS)
Con posterioridad a los episodios de Mary Cover Jones (1924), pareció existir poco interés
por los principios del contracondicionamiento, hasta que Wolpe (1958) publicó los
resultados de su investigación sobre métodos para eliminar fobias (Psychotherapy by
Reciprolcal Inhibition).
Empezó a investigar con gatos. Un grupo escuchaba un zumbador (EC2) y a continuación
sufría un choque eléctrico (EI2). El otro grupo fue sometido a varios ensayos en que el
zumbador (EC2) fue apareado primero con comida (EI1) y después con el choque (EI2).
Pavlov (1927) había sugerido que el conflicto creado por una situación en que un animal no
podía distinguir entre el EC que señalaba un estímulo apetitivo (comida) y el EC que
indicaba un hecho adverso (choque) podía crear una neurosis experimental.
Sin embargo, Wolpe comprobó que en los dos grupos de gatos (con o sin conflicto), la ansiedad
provocada por el choque actuaba inhibiendo el acto de comer. Razonó que, si un miedo
intenso inhibía de manera efectiva necesidades por comer relativamente débiles, quizá
fuertes necesidades por comer pudieran, recíprocamente, inhibir miedos débiles. Sometió
a prueba esta idea de la inhibición recíproca, dando alimento (EI1) a los gatos en jaulas (EC1)
muy distintas de aquellas en las que habían recibido choque (EI2). Verificó que en
circunstancias en que los estímulos condicionados al choque se reducían la mínimo, los
animales comían. A continuación, pasó los gatos a lo largo de una serie de jaulas (EC1) cada
vez más parecidas a aquellas en que habían sido sometidas a choque (EI2), mientras seguían
alimentándolos (EI1). Finalmente, los animales comieron (RI) en sus jaulas originales (EC1)

4
(relacionadas con el choque), tras lo cual Wolpe comenzó a aparear el sonido del zumbador
(EC2), a baja intensidad, con la comida (EI1).
Por fin, los gatos siguieron comiendo (RI) en sus jaulas originales (EC1) aunque el zumbador
(EC2) sonara al máximo de intensidad, lo cual demostró que sus respuestas de miedo
condicionado (RC2) habían sido inhibidas con éxito.
A partir de esta investigación, Wolpe elaboró una serie de técnicas en que varias respuestas
incompatibles con el miedo eran asociadas con señales de miedo débiles. Las respuestas
incluían relajación, comer, conducta asertiva y actividad sexual. La terapia de entrenar a sujetos
para que adopten conductas de autoafirmación en situaciones que, sin esa preparación,
inducirían miedo se denomina entrenamiento asertivo, y hoy se emplea ampliamente.
También se emplea el “despertar sexual” como respuesta excitatoria destinada a inhibir
ansiedades relacionadas con lo sexual (técnicas empleadas en problemas sexuales: ejercicios
de focalización, etc.) De todos los procedimientos de Wolpe basados en la inhibición
recíproca, el empleo de la relajación contra el miedo es con diferencia, la aplicación más
extendida.
Los estímulos que provocan miedo quedan condicionados a respuestas incompatibles
(estado de relajación)
- Se entrena a la persona en relajación (mediante el procedimiento en relajación
muscular progresiva de Jacobson, respiración diafragmática,etc...)
- Se construye una jerarquía de situaciones imaginadas, ordenándola de acuerdo al
grado subjetivo de ansiedad que provoca al sujeto)
- El sujeto se imagina repetidamente los estímulos mientras está relajado, hasta que
éstos no producen ansiedad.
- De ese modo se va avanzando hasta completar la jerarquía.
- Al final se produce la exposición a los estímulos reales.
El procedimiento en vivo es mucho más útil que el imaginado. Tanto la DS como la
exposición son procedimientos extremadamente útiles para el tratamiento de la ansiedad
y el miedo, muy utilizados en la práctica clínica.
10. Terapia de conducta y tratamiento de ansiedad: exposición
Se trata de extinguir la RC de miedo que produce un EC. El sujeto se expone al ec que
provoca miedo en unas condiciones de seguridad (sin EI) durante un periodo de tiempo largo,
se debe producir la extinción de la RC. Variantes:
- Exposición imaginada
- Exposición en vivo
Procedimiento:
- Se elabora una jerarquía de situaciones a las que se expone progresivamente la persona
sin escapar de la situación (prevención de respuesta) hasta que la reactividad emocional
disminuya. A medida que la RC de ansiedad ante un estímulo se va extinguiendo,
comienza la exposición al ítem siguiente de la jerarquía. Como hemos señalado, esa
exposición puede ser imaginada, o en vivo.

5
- Esta técnica es el tratamiento de elección en trastornos como agorafobia, pánico,
trastorno obsesivo compulsivo, etc., y ha demostrado una eficacia terapéutica.

11. Enuresis nocturna: “pipi stop”


El problema por el cual los niños se hacen pis por la noche tiene que ver con la presión de la
vejiga (Ec interno) no proporciona la estimulación necesaria para despertarse cuando se
siente necesidad de orinar.
El “pipi- stop” es un aparato que emite un sonido intenso (EI) que despierta al niño (RI)
cuando se orina. El niño acabará despertándose antes de orinar ya que la respuesta de
despertarse se ha condicionado al estímulo de la presión de la vejiga (EC). Se puede
complementar el tratamiento con otra serie de estrategias denominadas · entrenamiento en
cama seca” y eso aumenta su eficacia.
12. Disfunciones sexuales
Las señales relacionadas con el funcionamiento sexual llegan a asociarse con estímulos
incondicionados que activan el sistema simpático y la ansiedad, e inhiben el dominio del
sistema parasimpático (esencial para la erección del pene); Esas señales pueden convertirse
en estímulos condicionados inhibitorios.
La terapia primaria para muchas disfunciones sexuales consiste en desinhibir los reflejos
medulares inhibidos a fin de que la conducta sexual ocurra “espontáneamente”.
Impotencia:
Master y Johnson. Técnica del “placereado” no exigente: suaves caricias en zonas no
genitales, seguidas por caricias de los genitales, pero con prohibición del coito. Prestar
atención a sensaciones propias: disminuir la exigencia de la situación y temor a fracasar.
Es una variante de la DS: originalmente, las señales asociadas al coito son EECC de la RC
de ansiedad que provocan inhibición del reflejo de erección. Como estímulos para el
contracondicionamiento se emplean las sensaciones placenteras relacionados con la
actividad sexual: las caricias arriba señaladas no provocan ansiedad, y recuperan su función
normal como EEII de las RRII de erección y placer. Así se moldea gradualmente una respuesta
no temerosa al coito.
- Experiencias Aversivas
o EC (Estar desnudos, acercamiento, contacto)
o EI (Anticipación de fracaso: Activación SNA Simpático)>RI (no erección o
tensión muscular)
o La RC elicitada por el EC> no erección o tensión muscular
- Contracondicionamiento
o EC (Estar desnudos, acercamiento, contacto)
o EI (Caricias, estimulación táctil con prohibición del coito)>RI (orgasmo)
o La RC elicitada por el EC> erección y/o disminución tensión
Eyaculación Precoz

6
Se utiliza la Técnica de la “parada-arranque”: el hombre es estimulado para hasta el
momento en que se experimenta la sensación de inminencia eyaculatoria; en ese momento
dejó de ser estimulado. No vuelve a recibir estimulación hasta que tanto el impulso como la
urgencia hayan desaparecido (presentación aislada del EC interoceptivo, o extinción).
Antes del tratamiento, estas señales de advertencia de la inminencia eyaculatoria son EC
internos excitatorios asociados con el EI de la “etapa del orgasmo inevitable”. Es por eso
que esos EC desencadenan el reflejo de eyaculación.
Después de la terapia, los EC de advertencia quedan recondicionados, de modo que inhiben
el reflejo eyaculatorio por varios minutos; “reforzando” este procedimiento de vez en
cuando mediante ejercicios, el hombre puede alcanzar un control casi completo del
momento de su eyaculación. Otro tratamiento es la técnica del apretón de Seman: la mujer
estruja con fuerza el pene en cuanto el hombre informa de la inminencia eyaculatoria. Este acto
no sólo inhibe la eyaculación y disminuye la erección; además asocia el impulso de
eyacular rápidamente con un estímulo doloroso y adverso.
Vaginismo
La RC derivada de la asociación de dolor o miedo (EI) con tentativas de penetración o actividad
sexual (EC). La RC-RI consiste en una contracción rápida de los músculos de la vagina,
de manera que el acto se hace doloroso, difícil y/o imposible.
Tratamiento: a) Entrenamiento en relajación o técnica de placereado (EI incompatible con
ansiedad); b) posteriormente introducción de catéteres de dimensiones graduadas (EC),
mientras es tolerado sin producir molestia. El último tiene las proporciones de un pene.
Es importante proceder con lentitud, para que los catéteres no se conviertan el ECs de una
respuesta de vaginismo.
13. Publicidad
Si bien se trata de un ámbito en el que la innovación es constante, podemos a partir de una
premisa básica y sencilla: el objetivo inicial puede consistir en que un producto
determinado inicialmente desconocido (estímulo neutro) se convierta en “atractivo” para
el consumidor, de modo que ello facilite que sea elegido de entre una serie de productos
similares.
Desde el condicionamiento clásico la estrategia no parece complicada: se trata de partir de
un estímulo incondicionado que elicite a una reacción emocional apetitiva (EI). A este
estímulo vamos a tratar de condicionar un producto con unas características concretas
(EC), que tras varias asociaciones producirá una reacción emocional apetitiva (RC).
El ejemplo que nos sugiere la secuencia es la de chica o chico sexualmente atractivo que emplea
un determinado producto. Sin embargo, esa persona no es un EI apetitivo. Conviene recordar
aquí el principio del condicionamiento de orden superior, en función del cual se pueden
emplear estímulos que producen reacciones emocionales como base para establecer nuevas
asociaciones, sin que sean en sí estímulos incondicionados.
Igualmente, el pre condicionamiento sensorial era un procedimiento a través del cual
llegamos a la conclusión de que los estímulos neutros se podían asociar entre sí.

7
También resulta de interés el principio de la generalización del estímulo: es de todos
conocido el hábito de la competencia de lanzar al mercado unos productos muy similares en
tamaño, forma o color al de un artículo que tiene un gran éxito comercial. Ello facilita que
resulten también atractivos para el consumidor y que incluso resulten muy difíciles de
discriminar.
Si jugamos con estos principios de condicionamiento clásico podremos comprender
mucho mejor la estructura de alguno de los anuncios que nos rodean.

8
Tema 6: Introducción al Condicionamiento Operante
1. Antecedentes Históricos
La conducta operante trata de estudiar la conducta voluntaria. El comportamiento o
respuesta se define en términos de una operación o manipulación del ambiente que
produce la aparición de la consecuencia, independientemente de la topografía o aspecto
concreto de la respuesta (cuando tú te agachas para coger algo es una conducta voluntaria,
ya que tienes que recoger lo que se te callo, y una manipulación del ambiente es cuan aplaudir
cuando una persona hace algo bueno o malo en clase).
Parece necesario estudiar respuestas instrumentales representativas, para poder descubrir
principios generales aplicables a todo tipo de comportamiento. En este ámbito de
investigación se suelen emplear
- Ratas de laboratorio: presionar palanca en caja Skinner; la presión de la palanca
“opera” en el ambiente activando el interruptor de comida.
- Picoteo disco con palomas, detectado por interruptor que activa el dispensador de
comida.
Otro experimento es Thorndike (1898) Estaba interesado en el estudio de la inteligencia
animal, y realizó una investigación con gatos en “cajas problema”, los animales tenían que
encontrar como salir de la caja y obtener la comida que estaba en el exterior.

Para escapar de la caja y conseguir la comida que tenían a la vista el animal (gato, pollo o
perro) debía pisar una palanca o descorrer un cerrojo o realizar alguna otra tarea mecánica.
Midió la latencia del movimiento correcto-tiempo que el animal tardaba en escapar de la
caja y continuó midiéndola en cada uno de los ensayos sucesivos.

En la gráfica se observa como un gato tardó 160 segundos en salir de la caja A en el primer
ensayo. Después su latencia fue de 6 segundos. El investigador Descubrió que existía una
correlación negativa entre el número de veces que el animal había escapado de la caja y

1
la cantidad de tiempo que invertía en hacerlo: cuantos más ensayos había realizado, menos
tiempo tardaba en escapar.
Después de muchos y repetidos ensayos, el animal resolvía el problema y salía de la caja casi
inmediatamente. En las curvas de la figura se aprecia como la repetición de los ensayos hacía
que descendiera la latencia.
(LO SIGUIENTE CAE FIJO):
Como consecuencia, Thorndike en 1898 formula la Ley de Efecto: si una respuesta en
presencia de un estímulo (caja problema) es seguida por un suceso satisfactorio (alimento), la
asociación entre el estímulo (E) y la respuesta R se fortalece. Si la respuesta es seguida por
un suceso molesto, la asociación E-R se debilita.
Es importante señalar que según esta ley los animales aprenden una asociación entre la
respuesta y los estímulos presentes cuando se ejecuta la respuesta. La consecuencia de la
respuesta no es un elemento que con forme parte de la asociación. La consecuencia es
satisfactoria o molesta simplemente sirve para fortalecer o debilitar la asociación o lazo
entre la respuesta (R) y la situación estimular (E). La ley del efecto implicaba una
concepción del aprendizaje en los términos de asociaciones E-R inspirado en los trabajos
iniciales del condicionamiento clásico pavloviano. La ley del efecto no es más que la
aplicación del principio de selección natural aplicado al comportamiento específico de un
sujeto
2. Método de ensayos discretos
Thorndike utilizó 15 cajas problemas diferentes, que requerían manipulaciones distintas
para que el gato saliese. Cuando muchos científicos se pusieron a trabajar sobre el tema, el
rango de tareas fue mucho menor y algunas de ellas se convirtieron en “estándar”, y se han
empleado mucho para facilitar la comparación de resultados.
El animal solo tenía la oportunidad de emitir la respuesta instrumental (abrir la puerta)
cuando se le introduce en la caja (ensayos discretos). La respuesta instrumental solo se
realiza una vez en cada ensayo y requiere introducir al sujeto en el aparato en cada ensayo.
Las investigaciones se llevaron a cabo en laberintos.
Los laberintos emplean desde comienzos del siglo XX introducidos por Small, tras leer un
artículo sobre las madrigueras en las que viven las ratas canguro. Creyó que laberinto
aprovecharía la propensión de las ratas a los pasadizos pequeños y tortuosos. Hay dos tipos:
por una parte, el corredor recto (caja de salida y meta que mide la velocidad de carrera) y el
corredor en forma de T que mide la conducta de elección (por ejemplo, comida normal vs
edulcorada). Por lo tanto, las variables que se evalúan son: la velocidad de la carrera
(aumenta con los ensayos de entrenamiento) y la latencia de la respuesta (tiempo que tarda
el animal en abandonar la caja de salida y disminuye con el entrenamiento).

2
3. Método de operante libre
Alternativa desarrollada por Skinner (1938), que es la Caja de Skinner ideada en 1938.
La conducta realmente es algo continuo. No se divide nítidamente en secuencias aisladas. El
objetivo de Skinner es pretender elaborar un laberinto automatizado (para reptir la
respuesta instrumental de pulsar una palanca al animal una y otra vez sin restricciones):
- Las ratas regresaran automáticamente a la caja de salida
- Así la rata decidiría cuando comenzar un nuevo ensayo.
Permitiría estudiar no sólo la velocidad de la respuesta, sino también la frecuencia con la que
se elige realizarla. Sus esfuerzos culminaron con lo que se conoce como caja de Skinner, cuyos
elementos principales son:
- Caja
- Palanca
- Comedero con dispensador automático de comida
- Programa que proporciona comida cuando la rata pulsa la palanca.

La respuesta estudiada en la caja de Skinner es una conducta operante, se define a partir del
efecto que produce en el ambiente (Skinner Propuso el concepto operante como una forma
de dividir la conducta en unidades medibles con significado). Las actividades que producen el
mismo efecto ambiental son ejemplos de la misma respuesta operante: cuando una rata pulsa
la palanca con la pata derecha o la izquierda son respuestas musculares que constituyen la
misma operante si empujan la palanca con la intensidad suficiente, porque tienen el mismo
efecto sobre el medio (cumplen la misma función): cerrar el interruptor que proporciona
comida.
4. Adquisición de la respuesta instrumental en laboratorio
El entrenamiento para la adquisición de la respuesta del pulsar la palanca se debe hacer:
- Deprivación: para que el alimento sirva como R+, la rata tiene que tener una cierta
cantidad de hambre. Para ello se depriva a la rata de alimento, hasta llegar al 85% de
su peso inicial.

3
- Acomodación a la caja de Skinner: durante el proceso de la deprivación se aprovecha
para que la rata se familiarice con el hecho de ser cogida por el experimentador para
meterla- sacarla de la Cámara experimental. A esto se le llama fase de manoseo.
Además de qué se trata de que el animal se acostumbré a estar en ese nuevo aparato.
- Entrenamiento en discriminación del comedor: ahora el animal tiene que aprender
que el alimento se proporciona en el comedero. Cada vez que el experimentador que
Acciona un pulsador, el dispensador de comida hace un ruido (denominado click) y a
continuación que cae una bola de comedero. La rata tiene que aprender esta mecánica.
Para ello se lleva a cabo un condicionamiento clásico de modo que el animal asocia
el sonido del dispensador de comida (EC) con la bola de comida (EI:pellet). Tras varios
ensayos, ese sonido elícita una respuesta (RC) de seguimiento de signo: el animal se
dirige al comedero y se come el pellet.
- Moldeamiento de la respuesta de pulsar la palanca: pulsar es la conducta meta a la
que vamos llegando mediante el reforzamiento de aproximaciones sucesivas a la
respuesta requerida y el no reforzamiento de las formas de respuesta más tempranas. Es
decir, a partir de ahora vamos a suministrar el click y la comida cuando la rata haga
algo parecido a pulsar la palanca, siguiendo una secuencia similar a esta: mirar hacia la
palanca, ponerse a dos patas cerca de la palanca, apoyarse estando a dos patas en la
pared de la caja cercana a la palanca, tocar la palanca y pulsar la palanca.
- De este modo llegaremos a la conducta meta, que se mantendrá por sí sola, pues la
caja de Skinner administra el click y la comida cuando la rata cierra el micro interruptor
al empujar la palanca.
5. Moldeamiento por aproximaciones sucesivas
El moldeamiento se emplea para condicionar respuestas e instrumentales que no se
encuentran en el repertorio conductual del sujeto. La nueva conducta se moldea mediante
la imposición de una serie de criterios de respuesta que llevan al sujeto desde su repertorio
conductual de partida hasta la respuesta objetiva.
La conducta meta debe de estar claramente definida y el repertorio conductual del sujeto
debe de estar muy bien descrito, para identificar el punto de partida.
Se debe diseñar una secuencia de aproximaciones sucesivas a la R meta, que Irán
reforzándose diferencialmente en relación al resto de conductas del sujeto.
6. Medida conducta operante
La tasa de respuestas como medida de la conducta operante es la frecuencia de la
respuesta, aumenta a lo largo de las sesiones de reforzamiento, a la vez que disminuye la tasa
de respuestas no reforzadas. Skinner propuso utilizar la tasa (frecuencia de respuestas por
minuto) de aparición de una conducta operante como medida de la probabilidad de R. Las
respuestas más probables ocurren con frecuencia y muestran una tasa alta. Las respuestas
improbables ocurren esporádicamente y muestran una tasa baja.
7. Tipos de condicionamiento instrumental
La clasificación según el condicionamiento instrumental y la combinación son de 2 criterios:
A) Naturaleza de la consecuencia controlada por la respuesta:
a. consecuencias agradables su estímulo apetitivo (dinero)

4
b. consecuencias desagradables o estímulo aversivo (gritos)
B) contingencia entre respuesta y consecuencia. La respuesta puede:
a. Hacer que la consecuencia aparezca, (contingencia positiva)
b. Hacer que la consecuencia desaparezca (contingencia negativa).
El incremento disminución de la tasa de respuesta depende de estos dos factores. A partir
de estos factores podemos aplicar las cuatro alternativas siguientes.
Refuerzo positivo:
La contingencia positiva entre la respuesta y el reforzador apetitivo; que el sujeto ejecuta la
respuesta instrumental, recibe (aparece) el estímulo reforzador, si no la ejecuta no; su objetivo
es que se produzca el incremento en la tasa de respuestas y el reforzamiento puede ser continuo
o intermitente. Por ejemplo, un padre da a su hija un bombón tras tomarse un jarabe; un
deportista recibe una medalla y un cheque por haber sido el ganador de la prueba.
Castigo positivo.
Existe una contingencia positiva entre la respuesta instrumental y un estímulo aversivo: y el
sujeto ejecuta la R instrumental recibe (aparece) el estímulo aversivo; si no la ejecuta, ese
estímulo aversivo no se presenta, el efecto es la disminución de la probabilidad de la
conducta castigada. Por ejemplo, una madre da una reprimenda a su hijo por cruzar la calle sin
comprobar que no pasan coches; suspendes un examen por contestar muchas preguntas
erróneamente.
En los laboratorios primero se emplea el refuerzo positivo para implantar una respuesta
instrumental, y a continuación se suministra un choque como estímulo aversivo para
suprimirla.
Reforzamiento negativo.
Es la contingencia negativa entre la respuesta y el estímulo aversivo: la aparición de una
conducta instrumental interrumpe o impide la entrega de un estímulo aversivo, produce un
efecto de incremento en la tasa de respuestas que puede llevar a escape (el estímulo aversivo
se presenta de forma continua y puede ser interrumpido, es decir desaparece, con la
presentación de la respuesta instrumental, por ejemplo, se puede escapar del sonido de una
emisora mal sintonizada apagando la radio o levantándose para sintonizarla bien) y la evitación
(respuesta instrumental que previene la presentación del estímulo aversivo, por ejemplo
los trabajadores que llevan casco para evitar hacerse daño en la cabeza).
Castigo negativo.
Contingencia negativa entre la respuesta instrumental y el estímulo apetitivo: la respuesta
impide (hace que desaparezca) la aparición de un hecho agradable. Produce una disminución
en la tasa de respuestas y tiene las siguientes variantes
- Coste de respuesta: la emisión de una respuesta produce la retirada de un refuerzo
positivo que el sujeto tenía acumulado. Por ejemplo, una multa por conducir rápido.
- Tiempo fuera de refuerzo positivo: remisión de una respuesta produce la retirada
temporal del acceso al refuerzo positivo. Por ejemplo, un niño castigado de la cara a la
pared por alborotar en clase o la retirada del carné por conducir rápido.

5
- Reforzamiento diferencial de otra conducta (RDO) o entrenamiento en omisión:
el sujeto recibe un estímulo apetitivo por no realizar una respuesta crítica. Sí lleva a
cabo esa conducta no recibe el estímulo apetitivo. Hay un experimento de Barton y Cols
en 1986 niños con discapacidad intelectual en educación primaria, los reforzadores
serán manzanas y uvas. Un niño se dedicaba a un aleteo manual recurrente (mover la
mano arriba y abajo o atrás y delante), la tasa de esta conducta se observó en el
laboratorio durante 12 días; a continuación, el entrenamiento en omisión durante 29
días (proporcionar un reforzador siempre que transcurría un periodo de un minuto sin
ningún aleteo manual), después otra vez laboratorio y de nuevo omisión

Los elementos claves en el condicionamiento instrumental son: la respuesta, la


consecuencia (reforzador), estímulos contextuales y relacionó contingencia entre la
respuesta y la consecuencia.
8. La respuesta instrumental
La respuesta instrumental es un elemento clave del condicionamiento instrumental, y
consta de las siguientes características
La conducta no licitada por un estímulo localizable. Algunas respuestas son más fáciles para
modificar qué otras, la respuesta requerida para el reforzamiento puede ser una acción
observable concreta, tal como un movimiento, o bien puede requerirse que el sujeto haga algo
distinto de lo que se hizo en los ensayos precedentes (variabilidad de la respuesta). El resultado
típico del reforzamiento instrumental es la disminución de la variabilidad de la respuesta.
9. Los refuerzos
Los refuerzos o consecuencia es un elemento clave de condicionamiento instrumental, es
un estímulo que, al ser presentado contingentemente tras la emisión de una respuesta, aumenta
la probabilidad de emisión de la misma y de la consecuencia. Su prestación depende de la
emisión de la respuesta deseada:
- Refuerzos primarios. No requieren de experiencia del sujeto para ser efectivos, por
ejemplo, la comida

6
- Refuerzos secundarios. Estímulo originalmente neutro que adquiere propiedades
reforzantes mediante el emparejamiento con un reforzador primario. Por ejemplo, la
aprobación social o el dinero.
El experimento de Hutt de 1954 fue a un grupo de ratas se les proporcionaban como refuerzo
positivo una mezcla de agua harina y leche, añadiéndole azúcar o ácido. Las tasas medidas de
respuestas más elevadas fueron aquellas que iban seguidas de sabor dulce, seguidas de sabor
normal y sabor ácido. Además, se obtuvo el mismo resultado cuando la cantidad recibida
era alta, media y pequeña.
10. Relación respuesta-refuerzo
Existen ocasiones en las que hay una fuerte relación entre lo que hace una persona y la
consecuencia que sigue: girar la llave y arrancar el coche, apretar el mando a distancia y abrir
la puerta del garaje. En otras ocasiones no existe relación: utilizar un determinado bolígrafo
y aprobar los exámenes; llevar un llavero para que el viaje salga bien. Otras veces la relación
es probabilística: hay que llamar varias veces hasta localizar a alguien.
Los factores temporales y causales son independientes unos de otros. Una relación temporal
fuerte no requiere una relación causal fuerte. P. e. Hay una relación causal fuerte entre
presentar una solicitud en la Universidad y ser aceptado, aunque no hay una relación temporal
tan fuerte en obtener el resultado inmediatamente
Las relaciones temporales es el tiempo que transcurre entre la respuesta y el reforzador.
Contigüidad temporal (entrega del reforzador inmediatamente después de la respuesta)
Las relaciones causales es la respuesta instrumental necesaria y suficiente para la
ocurrencia del reforzador. Contingencia respuesta- reforzador.
10.1. Relación respuesta refuerzo: Contigüidad Temporal y demora
La continuidad temporal y demora: el reforzamiento instrumental requiere
presentar el reforzador inmediatamente después de la emisión de la respuesta. De
lo contrario, a medida que se incrementa la demora disminuye su eficacia. El
refuerzo instrumental es un proceso de selección de las respuestas en el que resulta
crítico que el refuerzo positivo se presente inmediatamente después de la respuesta
objetivo. Si hay demora, podrían reforzarse accidentalmente otras actividades distintas
a la respuesta objetivo. Cómo se ve la gráfica, esto se producirá el delineamiento de
la respuesta objetivo y el reforzamiento de la conducta más próxima.

7
10.2. Relación respuesta refuerzo: Contingencia respuesta-refuerzo
Con una relación causal perfecta (contingencia) el condicionamiento no ocurre si
hay mucha demora (contigüidad). Parecía que la contigüidad más que la contingencia
era el factor crítico que producía el aprendizaje instrumental. Sin embargo, la
contingencia también es importante.
La conducta supersticiosa: en este experimento de skinner en 1948 se mostraba
apoyo del papel de la contigüidad:
- se suministraba palomas comida cada 15 segundos independientemente de su
conducta (de forma no contingente)
- La precisaba de conductas supersticiosas (tocar madera). Algunas palomas
aleteaban y otras picoteaban en base al reforzamiento accidental o adventicio.
En 6 de los 8 casos, las RR resultantes estaban tan claramente definidas que dos
observadores estarían perfectamente de acuerdo en casi todos los casos. Un
pájaro se condicionó para dar vueltas por la jaula en el sentido opuesto al de las
agujas del reloj, realizando 2 o 3 vueltas entre reforzamientos. Otro metía
repetidamente su cabeza dentro de una de las esquinas superiores de la jaula.
Un tercero desarrolló una respuesta de “sacudida”, como si situara su cabeza
bajo una barra invisible y la levantara repetidamente.
- Sin embargo, estos resultados no fueron confirmados en estudios posteriores
en el experimento de Sttadon y Simmelhag en 1971.
11. Indefensión Aprendida
Hay que tener en cuenta el concepto de controlabilidad:
- P(r/R): es la probabilidad de que el resultado ( r) se dé al emitir la respuesta. Oscila
entre 0 y 1, donde cero es la extinción- refuerzo intermitente- y 1 refuerzo continuo.
- P(r/no R): Probabilidad de que el resultado se dé sin emitir la R: el sujeto recibe de
reforzamiento por no emitir una respuesta, sino otra alternativa: reforzamiento
diferencial de otra conducta (RDO).
- Los organismos son sensibles a las variaciones a lo largo de estas dos dimensiones
conjuntamente (Yela,1997).
Un resultado es controlable cuando:

8
- Aparece con más probabilidad si el sujeto emite una respuesta que si no lo hace, es
decir, controlabilidad es igual a contingencia positiva, P(r/R)>p(r/noR)
- Aparece con más probabilidad si el sujeto no emite una R que si lo hace, es decir,
controlabilidad igual a contingencia negativa, p(r/R)<p(r/noR)
Un resultado es incontrolable sí p(r/R)=p(r/noR). Es decir, el resultado es igualmente
probable que aparezca tanto si el sujeto emite una R como si no la emite.
La expectativa de incontrolada habilidad de un resultado aversivo va a ser la variable
independiente clave del modelo de indefensión aprendida (IA).

Experimentos de la infensión aprendida:


La indefensión aprendida es un término empleado por Seligman y Maier en 1967,
Overmier y Seligman en 1967.
Se buscó en comportamientos inesperados en perros: tras recibir descargas incontrolables
en un arnés (condicionamiento clásico), al ser introducidos en caja de lanzadera no aprendían
a escapar. Se desarrolló del “diseño triádico” para asegurarse de que la variable
responsable de los déficits es la incontrolabilidad.

9
Los efectos de la incontrolabilidad son:
- Déficit motivacional: dificultades para iniciar respuestas voluntarias de escape en una
tarea controlable posterior: mayores latencias de R y menor número de R de escape-
evitación.
- Déficit asociativo: adquisición de expectativas de independencia entre R mi resultado
en el futuro: incremento número de errores y ensayos para realizar correctamente la
tarea.
- Déficit emocional: estado elevado de emocionalidad, que incluye miedo, ansiedad y
en última instancia depresión: aumento del número de úlceras en el estómago.

Important

10
TEMA 7: REFUERZO POSITIVO
1. Ejemplo: “Quieres sentarte aquí Mamá” y el Refuerzo Positivo
Reforzando el comportamiento de colaboración con Daniel: Daniel era un niño de 6 años, que
no colaboraba con sus padres. Así que se lo llevaron a la clínica Gatzert de Desarrollo Infantil
de Washington con la esperanza de que allí aprenderían a tratar más eficazmente el
comportamiento tan dominante de Daniel. Según sus padres, Daniel, “dirigía prácticamente la
función”, decidiendo la hora de irse a la cama, lo que comía, cuándo podrían jugar con él sus
padres, etc. El Dr. Rober Wahler pidió a la madre de Darren que pasara un rato a la sala de
juego de la clínica para poder observar directamente las conductas de colaboración y las de no
colaboración del niño. Las primeras dos sesiones se destinaron a establecer la línea de base, es
decir, se dijo a la madre “simplemente juegue con su hijo tal y como lo haría en casa”. La
duración de cada sesión fue de 20 minutos. La conducta dominante se definió como cualquier
orden verbal o no verbal que Daniel diese a su madre. P. E., empujarla para que se sentase en
una silla o decir cosas como “tú, vete ahí que yo me quedo aquí”, o “No, eso está mal, hazlo
así”. La conducta de colaboración se definió como cualquier afirmación, acción o pregunta
realizada de forma no imperativa, como pueden ser el señalar una silla y preguntar “¿Quieres
sentarte aquí? La frecuencia del comportamiento de Daniel se ilustra en la figura, en la que se
muestra la curva de datos recogidos en intervalos de 10 minutos. Mostró un nivel de
comportamiento de colaboración muy bajo durante las dos sesiones de línea de base. Por otro
lado, su conducta dominante se manifestó con una frecuencia extremadamente alta. Tras las
sesiones de línea base se pidió a la madre de Daniel que fuese muy positiva y le alentase cuando
mostrase comportamientos de colaboración e ignorase completamente el comportamiento
dominante. Durante las dos sesiones siguientes, la conducta de colaboración de Daniel se
incrementó con un ritmo constante (durante el mismo periodo su comportamiento dominante
desapareció prácticamente). El R+ tras las conductas de colaboración y la extinción de su
conducta dominante fueron la causa de ese incremento

El reforzador positivo es el evento que, al presentarse inmediatamente después de una


conducta, hace que esta suceda con más frecuencia. Por ejemplo, el elogio de la madre al
niño
El refuerzo positivo es la situación dada una persona hace algo que es seguido
inmediatamente por un reforzador positivo, es más probable que esa persona haga de nuevo
la misma cosa cuando se enfrente a una situación similar. El efecto del elogio.

1
Aunque todo el mundo tiene una idea basada en el sentido común sobre las recompensas, muy
pocas personas son conscientes de la cantidad de veces que diariamente son influidas por
el refuerzo positivo, Por ejemplo;

Las personas de estos ejemplos no usaron el principio del refuerzo positivo conscientemente,
sino que simplemente "Actuaron de un modo natural”. Para cada ejemplo podrían
necesitarse varias repeticiones antes de que la respuesta reforzada e incremente de modo
evidente. En cualquier caso, el efecto se da. Cada vez que hacemos algo hay respuestas que
nos “animan” o nos “desaniman”, o que no nos afectan de ninguna forma.

Puede ser útil pensar en el comportamiento de la misma forma que en los demás aspectos de la
naturaleza. ¿Qué es lo que pasa cuando uno suelta un vaso de su mano? Que cae al suelo. ¿Qué
sucede cuando la temperatura del agua desciende de 0 grados? Se congela. Estas cosas son
obvias para todos, y los científicos las han estudiado mucho, formulando leyes como la de la
gravedad.
El Principio del Refuerzo Positivo está Alcanzando con rapidez la condición de ley. La
psicología científica está estudiando este principio con un gran detalle desde los años 30, y hoy
sabemos que es una parte fundamental del proceso de aprendizaje. También conocemos
diversos factores que determinan el grado de influencia que este principio tendrá sobre el
comportamiento.
2. Factores que influyen sobre la eficacia del R+

2
2.1. Seleccionar la Conducta que se quiere incrementar
Lo primero es identificar de forma específica los comportamientos que serán
reforzados (se debe de medir de una forma específica y operativa). Esto servirá para:
- Garantizar la fiabilidad de la detección de ejemplos de la conducta y los
cambios de su frecuencia.
- Aumentar la probabilidad de aplicar consistentemente el programa de
refuerzo.
Por ejemplo, si queremos reforzar un tipo de conducta general (ser más amable), hay
que identificar a los comportamientos específicos que caracterizan esa categoría (ser
más sociable) (preguntas que se toman en cuenta para llevar esas situaciones a qué te
refieres, qué intensidad, duración y frecuencia, ejemplos...)
2.2.Elegir el reforzador (cada cual es cada cual y sobre gudtos no hay nada
escrito)
Algunos estímulos son reforzadores positivos para casi todo el mundo: comida para
las personas que no han comido en varias horas, golosinas para los niños. Pero por otro
lado, diferentes personas se emocionan por cosas distintas: Diana, niña de 6 años
con deficiencia evolutiva. Podía imitar varias palabras y se la estaba intentando enseñar
a nombrar dibujos. En el proyecto se utilizaban habitualmente golosinas y dar bocados
a la comida de la cena. Pero estos reforzadores no eran eficaces con ella, pues los
escupía nada más comerlos. Después de hacer varias pruebas se descubrió que era
muy reforzante el dejarla jugar con un monedero de juguete durante 15 segundos.
Después de muchas horas de entrenamiento se consiguió que hablase usando
expresiones cortas y frases completas. Con otro niño se halló que un reforzador eficaz
era el dejarle escuchar una caja de música durante unos segundos. Se clasifican de la
siguiente manera:
- Reforzadores de consumo: golosinas, refrescos, galletas...
- Reforzadores de actividad: ver la TV, leer un libro, mirar por la ventana...
- Reforzadores de manipulación: jugar con un juguete, pintar, montar en bici...
- Reforzadores de posesión; sentarse en silla favorita, vestir con una camiseta
preferida, habitación propia...
- Reforzadores sociales: abrazos, sonrisas, elogios... Este es un reforzador
aplicable para todo el mundo
Los procedimientos para encontrar los reforzadores
A) Emplear inventarios reforzadores
B) Ensayo y error
C) Observar a la persona durante sus actividades cotidianas tomando nota de
las más frecuentes (PRINCIPIO DE PREMACK. Johnson (1971) utilizó
este principio con un estudiante de 17 años que estaba deprimido para ayudarle
a aumentar la frecuencia de sus afirmaciones positivas sobre sí mismo. Se pidió
al estudiante que, justo antes de orinar (una conducta de alta probabilidad),
imaginase un pensamiento positivo (una conducta de baja probabilidad)
siguiendo unas instrucciones escritas en una tarjeta. Después de varios días, el

3
estudiante experimentaba los pensamientos positivos espontáneamente justo
antes de orinar y sin necesidad de revisar las tarjetas. Tras dos semanas de
práctica con este procedimiento, el estudiante manifestó que los pensamientos
positivos aparecían con una alta frecuencia (y que los pensamientos depresivos
habían desaparecido completamente), en conclusión, es una conducta con alta
probabilidad de ocurrencia que puede usarse para reforzar a otra con
menor probabilidad de aparición).
D) Dejar que la persona elija entre un número de posibles reforzadores:
recurso valioso para un programa de entrenamiento. Con deficientes evolutivos,
presentar una bandeja con frutos secos, pidiéndole que elija. Si la persona sabe
leer los reforzadores pueden presentarse en una lista, como si fuera una carta
de reforzadores, de modo que los reforzadores preferidos pueden escogerse tal
y como se piden la comida en un restaurante.
E) Un error muy frecuente es la mala elección de los reforzadores, un objeto o
suceso se define como reforzador solamente por sus efectos sobre la conducta,
una prueba es evaluar la línea base de la conducta y ver si aumenta o disminuye
tras la presentación del refuerzo. Nunca se puede estar seguro de que un ítem
se ha reforzado adecuado para alguien, hasta que se demuestre que
funciona como tal.
Ejemplos en las diapositivas sobre Cuestionarios de reforzadores y una tabla de ellos.
2.3.Operaciones motivacionales: privación y saciedad
El reforzador no es eficaz si previamente el sujeto no ha sido privado de él durante
un tiempo. Estas operaciones alternan temporalmente la efectividad de un reforzador y
la frecuencia de la conducta reforzada:
- la privación es el tiempo anterior a una sesión de entrenamiento en la que
el sujeto ha estado sin experimentar el reforzador.
- La sociedad es la condición en la que el individuo ha experimentado tanto
el reforzador, que deja de serlo.
Por ejemplo, las golosinas no suelen servir de reforzador para un niño que acaba de
comer una bolsa entera de gominolas. En el caso de Diana, jugar con un monedero no
habría sido un buen reforzador si se la hubiese dejado jugar con uno antes de la sesión
de entrenamiento.
2.4. Inmediatez
El reforzador diferido: a veces puede lograrse que una persona sea capaz de seguir
instrucciones trabaje para obtener un reforzador diferido
- Que un niño limpie el cuarto por la mañana y su padre le traiga un juguete por
la tarde
- trabajar para obtener metas a largo plazo, como los estudiantes universitarios.
Puede que estos efectos no sean debidos al refuerzo positivo.
Para lograr una máxima eficacia, El reforzador debería administrarse
inmediatamente después de que la respuesta sea la deseada (Tiene que ser inmediato

4
ya que el máximo refuerzo es eficaz por un intervalo de 10 minutos si se pasa de ese
tiempo deja de ser automáticamente eficaz).
En los animales es poco probable que un reforzador tenga efecto sobre una conducta
siesta precede al reforzador en más de 30 segundos, y no tenemos ninguna razón para
pensar que los seres humanos sea diferente.
Por ejemplo: 12 trabajadores con un problema crónico, llegar tarde al trabajo. No efecto
de pagas extraordinarias a los 40 trabajadores con mejor expediente de asistencia, ni
entrevistas disciplinarias y suspensiones de un día sin sueldo a la hora de fomentar
puntualidad. Durante las 12 semanas del gráfico Fernando fue puntual menos del 80%
días laborables. Se puso en marcha un programa que se explicó a cada trabajador: cada
día que Fernando llegaba a tiempo, se le daba un papel en el que se indicaba que había
ganado 2 pesos (de gran valor para F. por entonces). Al final de cada semana cambiaba
la papeleta por dinero en efectivo. El efecto fue inmediato, llegando puntual en las
primeras 8 semanas del programa, al igual que con otros 11 trabajadores. Se demostró
que el cambio era debido al reforzamiento. Sin embargo, aunque salía de su casa media
hora antes, esa respuesta precedía al acto de recibir la papeleta en más de 30 segundos.
No fue inmediato ¿Cómo funcionó? Quizá, se decía a sí mismo nada más despertar “Me
voy al trabajo media hora antes porque así ganaré dos pesos más”, pudiendo estas
autoafirmaciones haber influido en la conducta crítica
Por lo tanto, los efectos de los reforzadores son
- Efecto de acción directa del refuerzo positivo es el incremento de la frecuencia
de una respuesta debido a las consecuencias inmediatas reforzantes que genera
(durante los 30 segundos aproximadamente)
- Efecto de acción indirecta de refuerzo positivo es el fortalecimiento de una
respuesta que viene seguida de un reforzador, aunque sea diferido. Este refuerzo
diferido puede tener efecto gracias a las instrucciones que se dan sobre que la
conducta conducirá al reforzador y gracias a autoafirmaciones que intervienen
entre la conducta y el reforzador diferido (la economía de fichas)

2.5. Instrucciones, Uso de normas


Para que un refuerzo pueda aumentar un comportamiento no es necesario que el
individuo sea capaz de explicar o entender por qué ha sido reforzado. Sin embargo,
deberían utilizarse instrucciones como norma general
Por ejemplo, el profesor de esta asignatura podría sugerir la norma” si complementas
previamente los esquemas de estos temas aprobarás asignatura”.

5
Las normas deben de tener un uso de instrucciones, las instrucciones son pautas
específicas que indican qué comportamientos concretos conducirán, qué
resultados bajo qué circunstancias en particular. Las guías de influencia son
- Aceleran el proceso de aprendizaje para quienes entienden. Por ejemplo,
algunos principiantes de tenis no progresan mucho en sus golpes del revés por
la simple instrucción de “concentrarse”, pero mejoraron bastante su revés
cuando se les enseñó a decir “preparado” cuando la máquina estaba a punto de
lanzar la pelota,” pelota” cuando veía la bola que salía disparada por la
máquina,” bote” cuando la bola tocaba la superficie, y “golpe” cuando la pelota
impactaba contra la raqueta.
- Pueden influir en la persona para que trabaje para obtener reforzadores
diferidos. Por ejemplo, sacan un sobresaliente en esa asignatura se demora
varias veces desde que comienza el curso y la norma de “sí completo los
esquemas con antelación a la clase sacaré un sobresaliente” tenga influencia en
el estudio.
- Incluir instrucciones en programas de refuerzo puede ayudar a ciertas personas
a seguir instrucciones en general (deficientes).
2.6.Refuerzo contingente vs no contingente
Cuando una conducta debe de darse antes de que se presente el reforzador, decimos que
el refuerzo es contingente a esa conducta. Si un reforzador se presenta en un momento
dado con independencia de que le preceda a la conducta, decimos que no es contingente.
Concepto de reforzamiento fortuito o conducta supersticiosa (Skinner, 1948).
En un club de natación, la entrenadora observaba como nadaban una serie un grupo de
alumnos. Les había recalcado con frecuencia la importancia de practicar el giro a ambos
lados de la piscina y realizar las series de natación sin interrupciones. Incluso, siguiendo
las recomendaciones de un compañero, había incluido en sus clases el dar una
recompensa: durante los últimos 10 minutos de la sesión los nadadores podían
entretenerse como prefiriesen. Sin embargo, los resultados seguían siendo los mismos:
daban mal los giros y paraban a mitad de las series con una frecuencia muy alta. El
error de la entrenadora es frecuente al principio. La incorporación de una actividad
divertida a los entrenamientos puede aumentar la asistencia, pero tendrá un efecto
reducido sobre el comportamiento de los jóvenes nadadores. El entrenamiento al final
de la sesión era no contingente. Esto sucede también con los educadores que suponen
que crear un ambiente agradable mejorará el aprendizaje de los estudiantes. Sin
embargo, para que mejoren las conductas, los reforzadores tienen que ser contingentes
a reforzadores específicos. A partir de aquí la entrenadora organizó las actividades de
ocio para que fuesen contingentes a las conductas deseadas. Durante las siguientes
sesiones, los nadadores tenían como objetivo el realizar un mínimo de giros en cada
extremo de la piscina y nadar las series sin interrupciones, para obtener el reforzador a
final de cada sesión. Como resultado, los nadadores mejoraron un 150%.
2.7.Como independizar al usuario del programa y volver a los reforzadores
naturales
La mayoría de los comportamientos cotidianos van seguidos de reforzadores,
aunque nadie los haya programado con la intención de incrementar ni mantener las
6
conductas, estos son los llamados reforzadores naturales que son no programados,
y el medio en el que se dan se denomina ambiente natural. Por ejemplo, comer es
reforzado por el sabor de la comida o las conductas servicios sociales son reforzadas
por las reacciones naturales de otras personas.
Los reforzadores naturales pueden empezar a dirigir la conducta tras el empleo
del esfuerzo positivo, en consecuencia, puede ser manipulados deliberadamente por
psicólogos, y en este caso se les denominaría reforzadores arbitrarios, ideados o
programados (le puedo añadir reforzadores artificiales porque siempre va en compañía
de reforzadores naturales y siempre tienen que ir progresivamente).Por ejemplo, tras
utilizar comida como reforzador para que un niño aprenda a nombrar objetos, al llegar
a su casa y decir las palabras aprendidas, reciben a menudo una gran cantidad de
atención de los padres. Con el tiempo no será necesario reforzar a los niños con
comestibles para que nombren objetos. Sin embargo, se puede estar seguro que una
conducta volverá a su nivel original si, después de haber sido reforzada en un
programa, no se refuerza al menos ocasionalmente en casa (con reforzadores
arbitrarios o naturales
3. Los peligros del R+
Los principios funcionan igual de bien con quienes no son conscientes de ellos. Las personas
que no son conscientes de esta capacidad de refuerzo, pueden reforzar conductas no
deseables. Muchas conductas indeseables se deben a la atención social, que provocan en
auxiliares, enfermeras, compañeros profesores, padres médicos y otros. Esto suele suceder
cuando uno menos se lo espera. Por ejemplo, Niños socialmente retraídos. Una característica
comportamental es que evitan mirar a la persona con la que están hablando. Se alejan
frecuentemente de los adultos que se les acercan. Podríamos concluir que no desean nuestra
atención. En realidad, lo más probable es que el comportamiento retraído del niño consiga una
mayor cantidad de atención social que la que hubiera obtenido si mirase al adulto. En estos
casos lo normal es que el adulto insista en que el niño le mire cuando le está hablando.
Desgraciadamente, esta respuesta reforzará el comportamiento retraído del niño. La tendencia
a prestar atención se mantiene, en ocasiones, por la teoría de que la interacción social es
imprescindible para “sacar al niño o niña de su retraimiento”. En realidad, un tratamiento
apropiado debería implicar el retirar la atención social de la conducta retraída, y
alternativamente, el prestar atención social, como mirar hacia el adulto que intenta interactuar.
El duro trabajo de un psicólogo que utilice las técnicas apropiadas puede verse entorpecido o
anulado por aquellos que están reforzando respuestas inadecuadas.
4. Reforzamiento condicionado o secundario
Vamos a ver si logramos un poco de concentración. ¡No podemos fallar en los rebotes!, gritaba
Jim Dawson en el entrenamiento de baloncesto. Jim era entrenador del equipo de baloncesto
del Instituto Clinton en Columbus, Ohio, y le preocupaba el rendimiento de los jugadores en la
serie de rebotes que usaba como ejercicio de calentamiento. Había además cierto problema
respecto a las actitudes que le llevaba a pensar que, “algunos chicos simplemente no saben
jugar en equipo, no tienen disposición”.
Con ayuda de un psicólogo, elaboró un sistema motivacional para los entrenamientos diarios
en los que los jugadores ganaban puntos por acertar en los rebotes, los tiros en suspensión y

7
los tiros libres. También sumaban puntos si jugaban en equipo y si animaban a los compañeros
mediante comentarios constructivos. Se restaban puntos si el entrenador consideraba que había
poco movimiento o actitudes negativas. Los jugadores fueron informados de todos los detalles
del nuevo sistema y los estudiantes voluntarios que actuaban como asistentes del equipo eran
quienes llevaban la cuenta de los puntos. Al final de cada sesión, el entrenador elogiaba a los
jugadores que habían conseguido más puntos y a quienes habían mejorado y por tanto sumado
más que en el entrenamiento anterior. Además, los nombres de los jugadores que conseguían
una cantidad suficiente de puntos se publicaban en un lugar destacado del tablero “Águila al
Esfuerzo”, situado en el pasillo del gimnasio, y al 22 finalizar la temporada, se organizaba una
fiesta en la que los vencedores recibían la medalla del “Águila al esfuerzo”.
En conjunto, el programa fue muy eficaz: el rendimiento en los rebotes pasó de una media
previa de 68% a una media del 80%; los tiros en suspensión pasaron del 37% al 51%, y los
tiros libres durante el entrenamiento pasaron del 59% al 67%. Sin embargo, los mejores
resultados se produjeron en la categoría de juego en equipo, y los comentarios constructivos
aumentaron hasta el punto de que los asistentes no siempre lograban anotarlos todos. Además,
aunque al principio la mayoría de las sugerencias se hacían “por pura cortesía”, con el paso del
tiempo llegaron a convertirse en aportaciones auténticamente sinceras y hacia el final de la
temporada, los jugadores exhibían un grado tan elevado de actitudes y comportamientos
positivos que, en palabras del entrenador Dawson, “Estamos mucho más unidos de lo que jamás
hubiera podido imaginar”
Existen los siguientes reforzadores:
- Reforzadores primarios: refuerzan sin haber sido previamente condicionados
(comida, agua, abrigo...).
- Reforzadores secundarios: adquieren su valor a través de la asociación con otros
reforzadores (halagos, fotos de un ser querido, prendas que favorecen, puntos del
entrenador de baloncesto).
- Reforzadores de apoyo: cuando un estímulo se convierte en reforzador por su
asociación con otro, a este estímulo se le llama reforzador de apoyo. Pueden ser
refuerzos primarios o secundarios. En los entrenamientos de delfines para espectáculos.
El entrenador asocia un click con la comida que proporciona cada vez que el animal
lleva a cabo un movimiento adecuado. El click se convierte en reforzador secundario,
y el alimento, que ha servido como refuerzo primario de base, se denomina en este caso
además reforzador de apoyo
Los puntos se convirtieron en reforzadores secundarios porque estaban emparejados con
reforzadores de apoyo que incluían los elogios del entrenador, la condecoración del “Águila al
esfuerzo” en la fiesta al final de la temporada y la publicación de nombres de los jugadores en
el tablón del “Águila al esfuerzo” en el pasillo del gimnasio. Previamente, quizá durante la
infancia, los elogios y halagos estarían asociados con otros reforzadores, como quizá los
abrazos de la madre y más remotamente con el momento en el que cuando uno es bebé es
alimentado en presencia de la cara sonriente de la madre; además es probable que este
emparejamiento con reforzadores de apoyo siga produciéndose en el entorno natural de los 23
estudiantes.
Una técnica para el refuerzo es la Economía de Fichas que consiste en:

8
- Fichas: reforzadores condicionados que se acumulan y cambian posteriormente por
reforzadores de apoyo.
- Economía de fichas: procedimiento de modificación de conducta en los que los
participantes que llevan a cabo determinados comportamientos obtienen fichas que
posteriormente canjean por reforzadores de apoyo.
o Como reforzadores de apoyo puede emplearse casi todo lo que se pueda
acumular.
o Como fichas, puede emplearse fichas de plástico que se pueden guardar
hasta el cambio, “pagares” o dinero de papel en el que se escribe el importe
ganado y la conducta realizada,”gomets”, etiquetas de quesitos...
- Un ejemplo de economía de fichas es: Un psicólogo clínico podría implantar un sistema
de economía de fichas en el que Alberto, un niño de 10 años obtendría pegatinas rojas
por diversos comportamientos del tipo: comenzar a hacer las tareas solo a una hora
determinada, ver la TV a una hora determinada, ducharse solo, levantarse solo de la
cama, desayunar a una hora concreta. Al final del día, podría cajear las pegatinas
ganadas por reforzadores de apoyo mediante equivalencias como: 5 pegatinas para ojear
sus comics favoritos, 3 pegatinas para ver su programa favorito de TV, 10 pegatinas
para conseguir un accesorio para su bicicleta, etc. Casi todo lo que puede acumularse
puede emplearse para el intercambio en los programas de economía de fechas.
El elogio como reforzador secundario es:
La madre o el padre que expresa el placer que le produce el comportamiento adecuado de su
hija, sonríe, la abraza, juega con ella y le da un caramelo o juguete a la vez que se lo dice. El
elogio suele establecerse como reforzador secundario durante la infancia, pero se mantiene en
la edad adulta; cuando alguien nos alaba, es más probable que no se te vienen otros aspectos
que cuando nos agasaja.
La ventaja en programas de modificación de conducta, es que puede administrarse
inmediatamente (no siempre sucede eso con los reforzadores de apoyo) y eso ayuda a conectar
el comportamiento deseado y la recompensa eficaz.
El castigo condicionado es un estímulo que se empareja con un castigo se convierte en
castigo condicionado (decir “no” o “deja de hacer eso” se convierten en castigos
condicionados, porque si la persona persiste en su conducta, a menudo van seguidos de un
castigo).
Los factores que influyen en la eficacia del refuerzo secundario son:
1. La potencia de los reforzadores de apoyo: hay que utilizar reforzadores de apoyo
potentes, en el sentido de que sean realmente reforzadores para el sujeto (elegir bien los
reforzadores de apoyo).
2. La variedad de los reforzadores de apoyo: la potencia de un reforzador secundario
(o condicionado) depende en gran parte de la cantidad de reforzadores de apoyo a los
que permite el acceso. Está relacionado con el factor anterior, puesto que cuántos más
reforzadores de apoyo existan, más probable es que alguno de ellos sea potente para el
sujeto. Hay reforzadores secundarios o condicionados que se denominan simples,
por estar asociados a un solo reforzador de apoyo (por ejemplo el sonido de la sirena
cuando llega el panadero al pueblo es un reforzador condicionado o secundario para los

9
vecinos). Hay reforzadores secundarios acondicionados generalizados que resultan
mucho más sutiles, pues están asociados a múltiples reforzadores de apoyos: durante
la infancia los padres y las madres alimentan a los bebés les bañan juegan con ellos y
satisfacen sus necesidades por ello al estar emparejados con muchos tipos de
reforzadores, la atención de los adultos se convierte en un reforzador secundario o
condicionado generalizado muy potente. El dinero también es un reforzador secundario
o condicionado muy eficaz, por estar emparejado con alimento, bebidas, vivienda,
vestido, ocio, y otros reforzadores.
3. El programa de emparejamiento con reforzador de apoyo: el reforzador
condicionado secundario es más eficaz y su aparición no es siempre seguida por
reforzadores de apoyo, es decir si hay que acumular una serie de fichas para obtener el
refuerzo de apoyo.
4. La extinción de reforzador secundario condicionado: para que un reforzador
secundario condicionado mantenga su eficacia tiene que seguir asociado de vez en
cuando a un reforzador de apoyo adecuado. De lo contrario pierde su eficacia. Si el
entrenador hubiera eliminado los elogios y el programa de “águila al esfuerzo”, los
jugadores hubieran dejado de esforzarse para ganar puntos.

Los errores en la aplicación del refuerzo condicionado:


Los adultos riñen a los niños por no portarse bien, pero no lo acompañan de ningún castigo
de apoyo y no reforzado ninguna conducta deseable alternativa.
Hay ocasiones en las que la atención acompaña a una regañina es reforzante (aunque no
sea esa la intención del adulto), sobre todo trabajando con niños con deficiencias cognitivas.
Así es probable que las reprimendas y otras expresiones como NO acaben convirtiéndose en
reforzadores condicionados.
Los estímulos que habitualmente resultan punitivos pueden convertirse en reforzadores
condicionados mediante su asociación con reforzadores primarios proprencitentes.
El ejemplo clásico es el de un padre o madre que da un azote a su hijo porque se ha portado
mal y después se siente culpable al verlo llorar con desconsuelo e inmediatamente la abraza y
le da un helado o cualquier chuchería. 1 de los resultados posibles es que el niño desarrolle
cierta preferencia por las agresiones por lo tanto el azote se convierte en un refuerzo
condicionado que mantiene y no elimina las travesuras que lo preceden.
Aplicar sin querer la extinción de un reforzador condicionado. de modo que el sujeto
recibe los reforzadores condicionados y deja de recibir los reforzadores de apoyo (falta
de motivación ante la economía de fichas).

10
11
TEMA 8: EXTINCIÓN
1. Introducción
Louise comenzó a padecer dolores de cabeza cuando tenía 13 años. Durante los años
posteriores, y debido a ello, Louise recibió una atención paterna, social y profesional excesivas,
permitiéndosele incluso el que se quedara en casa sin ir a la escuela -todo ello son
consecuencias que pueden haber contribuido al reforzar positivamente el problema. A los 26
años, Louise tenía, casi a diario, dolores de cabeza que le impedían realizar cualquier actividad.
Estos dolores mostraban las características típicas de la migraña: ciertos efectos visuales (veía
“puntos plateados”) seguidos de dolores punzantes en las sienes, náuseas y vómitos
ocasionales. Se le aplicaron sin éxito varios tratamientos, entre ellos medicación, acupuntura,
quiropráctica, psicoterapia y “choques” electroconvulsivos. Las inyecciones de Demerol que
le administraba su médico unas tres veces por semana, mostraron ser útiles para aliviarla sólo
momentáneamente. Varios exámenes médicos fracasaron a la hora de encontrar la causa
orgánica de los dolores de cabeza de Louise. De acuerdo con un exhaustivo informe del
terapeuta de conducta Dr. Peter Aubuchon, Louise aceptó que sus migrañas podían haber sido
aprendidas, y accedió a probar con un programa de tratamiento comportamental. El primer
paso fue que Louise aceptase que su médico ya no le administraría más Demerol, bajo ninguna
circunstancia. En segundo lugar, Louise y su marido acordaron que éste registraría las
conductas de dolor de Louise (que se concretaron como quejas, irse a la cama y colocarse
compresas frías en la cabeza). Los dolores de cabeza como tales no fueron registrados. Tercero,
los padres de Louise, su marido, su médico y las enfermeras de la clínica a la que acudía
regularmente, estuvieron de acuerdo en ignorar completamente todas las conductas de dolor
descritas por Louise. Más aún, todos ellos la elogiarían y reforzarían de otras formas cuando
mostrase conductas “sanas” (como hacer ejercicio y realizar labores domésticas). Para asegurar
su compromiso con el programa, Louse firmó un documento (contrato conductual) en el que
se describían a grandes rasgos los componentes del tratamiento. Los resultados de este
programa se muestran en la figura.

Si una respuesta ha aumentado su frecuencia a través de un refuerzo positivo, dejar de


reforzar completamente dicha respuesta tendrá como resultado la disminución de su
frecuencia (es lo que entendemos como extinción).
Al igual que con el refuerzo positivo, muy pocos de nosotros somos conscientes de la
frecuencia con que la extinción nos influye cada día en nuestras vidas. Otras formas de reducir
la frecuencia de conducta es el empleo de castigo positivo y castigo negativo (coste de
respuesta).

1
En el ejemplo anterior, los comportamientos de dolor de Louise dejaron de recibir atención y
su frecuencia descendió a un nivel muy bajo.
Ejemplos de Castigo positivo: cada vez que un niño dice una palabrota sus padres le gritan
¡No digas eso!
Coste de respuesta: Acabas de perder 1 euro de tu paga semanal.
Extinción: la conducta se debilita como consecuencia de ser emitida sin ser reforzada
1.1. Consecuencia de la extinción
El procedimiento en que no se sigue presentando el Refuerzo Positivo después de la
emisión de la respuesta (condicionamiento instrumental) o bien no se presenta el EI
tras el EC (condicionamiento clásico), Resultado: disminución de la tasa de respuesta
(condicionamiento instrumental) o de la RC (condicionamiento clásico).
La extinción “aparentemente” es lo contrario de la adquisición. Las limitaciones de
la extinción:
- No revierte los efectos de adquisición
- Implica el aprendizaje de algo nuevo que se superpone a lo aprendido antes
(sin la pérdida de lo que se aprendió).
Si la conducta es una adaptación al ambiente cambiante, la pérdida de la conducta
condicionada debería ser tan relevante como su adquisición. Las RR que tienen
éxito en un estadio determinado pueden dejar de tenerlo si cambian las circunstancias
(hacer dibujos simples de pequeño, quedar con alguien al principio que deja de ser
recompensante cuando la persona se enamora de otro, etc.).
Índice indirecto de condicionamiento: Persistencia de la conducta después de
introducirse la extinción
- Deseable (Lavarse los dientes sin el R+ de los padres)
- Indeseable (Niño reforzado siempre pro conseguir su objetivo > competitividad
desadaptativa.)
Cuando eliminamos ese reforzador
- Aumenta la variabilidad de la respuesta
- Los sujetos continúan respondiendo durante algún tiempo y finalmente se
produce la disminución de la conducta (disminución de la tasa de respuesta)
- Consecuencias emocionales: frustración ante la ausencia de R+. Esa ausencia
frustrante de R+ puede proporcionar energía a la conducta y a veces producir
reacciones agresivas
Ejemplo: Intentas abrir una puerta y no lo consigues
- Intentas probar con la llave en distintas posiciones, empujando la puerta, tirando
del pomo, levantándola, tratando de ajustar la llave en el bombín, etc.
- Lo intentas durante una serie de ocasiones, y finalmente desistes, llamando al
cerrajero.
- Dar una patada a la puerta; enfadarse mucho y levantar la voz.

2
Experimento en el que se sitúa a dos animales, uno que obtiene R+ por picotear y
otro que permanece inmovilizado en una esquina. Cuando se produce la extinción,
el primero acaba picoteando y agrediendo al segundo.

En todos los ejemplos podrían hacer falta varias repeticiones de la conducta sin que se
reforzase, antes de que se pudiera constatar un descanso realmente claro de su
frecuencia. No obstante, el efecto ya estaría ahí. Al cano de algunos ensayos, las
conductas que no se “retribuyen” decrecen regularmente. Por supuesto, esto, en
términos generales, es tremendamente deseable, pues, si persistiéramos en conductas
inútiles, desapareceríamos rápidamente como especie.

2. Factores
2.1. La extinción combinada con el R+
La extinción alcanza su mayor eficacia cuando se combina con el refuerzo positivo
de algún comportamiento alternativo. No sólo se ignoraban las conductas de dolor
de Louise, sino que también se reforzaban positivamente las conductas alternativas
(ejercicio, labores domésticas, etc.) La combinación de los dos procedimientos
posibilitó la reducción de la frecuencia de las conductas no deseadas de un modo
mucho más rápido que si se hubiese empleado sólo la extinción. P. E., un niño que
está emitiendo un grito podría ser ignorado hasta que haya dejado de gritar durante 10
segundos. Al final de ese intervalo podría ser reforzado con elogios. En pruebas

3
posteriores, el entrenador podría requerir periodos de silencio más largos (15”, 25”, 1
minuto, etc.) antes de presentar el refuerzo. Es importante que el incremento sea muy
gradual. Hay que tener cuidado de no presentar el reforzador inmediatamente
después de que el grito cese, pues esto tendería a reforzar el grito, incrementándolo
más que reduciéndolo
Además, hay que asegurarse que los reforzadores que se están eliminando son los que
se mantenían realmente la conducta inadecuada

Algunas veces se critica la extinción reprochándole que es cruel privar a la gente de


atención social cuando la necesita. En algunos casos el grito indica alguna lesión,
angustia u otros tipos de molestia. Es útil examinar detenidamente todo
comportamiento en términos de si es deseable el disminuirlo. Si se desea esa
disminución, entonces la extinción, junto con el R+ de una conducta alternativa, suele
ser, generalmente, el camino correcto.
2.2.Controlar los reforzadores de la conducta que se quiere reducir
Niña de 4 años que ha desarrollado mucho la conducta de lloriqueo, sobre todo cuando
quiere algo. Su madre ha decidido ignorar esta conducta con la esperanza de que
desaparecerá. En tres ocasiones durante una tarde, la madre ignoró la conducta del
lloriqueo hasta que cesó, y entonces, tras un breve periodo en el que no lloró, le dio lo
que deseaba. Todo iba bien hasta que el padre llegó a casa. Mientras la madre estaba en
la cocina, la niña se le acercó gimoteando y le pidió unos gusanitos para comérselos
mientras veía la TV. Aunque la madre ignoró a la niña, el padre entró en la habitación
y dijo “Mamá, ¿es que no puedes escuchar a tu niña? Ven aquí cielo, yo te daré los
gusanitos”. Es fácil predecir ahora el efecto que esta situación tendrá sobre la conducta
de lloriqueo de la niña en un futuro (además del enfado de la madre con el padre).
Los reforzadores otorgados por otras personas o por el entorno físico pueden
anular todos tus esfuerzos por aplicar la extinción. Además, la persona que consigue
su objetivo cargándose la extinción, no consigue entender la importancia de la misma.
En esos casos es necesario controlar de algún modo la conducta de esas otras personas,
o llevar a cabo la extinción cuando no estén presentes.
2.3.El ámbito en el que se lleva a cabo la extinción
Es útil cambiar el entorno en el que se aplica la extinción para:
- Minimizar la influencia de los reforzadores alternativos sobre la conducta
no deseada a extinguir.
- Maximizar la posibilidad de que el modificador de conducta pueda
mantener el programa.

4
Por ejemplo: Sería poco adecuado el que una madre iniciase la extinción de los
berrinches de su hijo en las tiendas de un centro comercial. Es probable que el niño
manifieste estas conductas en las tiendas, de manera que las miradas despectivas de los
dependientes y de las otras personas que están comprando disminuyan las ocasiones en
que la madre pueda llevar a cabo el proceso con éxito
2.4. Instrucciones: hacer uso de reglas
Aunque no es necesario que un sujeto sea capaz de aprender o de hablar sobre la
extinción, seguramente ayudará a acelerar la disminución de la conducta si, desde
el principio, se le dice a la persona algo como: “Cada vez que hagas X, dejara de
suceder Y (el reforzador)”. Por ejemplo, El marido, al llegar a casa del trabajo, todos
los días se queja del mal ambiente existente entre sus compañeros. Su esposa añadiría
cierto control de instrucción a la extinción, si dijese algo como:” Alberto, el ambiente
de tu trabajo es igual todos los días, y no se consigue nada hablando de ello. Me encanta
hablar contigo de otras cosas, pero cada vez que llegues a casa y te quejes tanto del
trabajo, me limitaré a no hacerte caso”.
2.5. La extinción es más rápida después del refuerzo continuo
La extinción es mucho más rápida después del refuerzo continuo que tras el
refuerzo intermitente, en este último caso, la extinción tardará más en actuar e incluso
se producirá un incremento inicial de la tasa de la conducta (efecto rebote).
Fenómeno de resistencia a la extinción. (ver ERPE más adelante)
Por ejemplo, Supongamos que escribimos con un bolígrafo que de repente deja de
funcionar. ¿qué hacemos? Probablemente lo sacudiríamos e intentaríamos escribir con
él varias veces. En el caso de que siguiera sin escribir lo tiraríamos y probaríamos con
otro. Este segundo bolígrafo empieza a fallar. Lo sacudiríamos unas cuantas veces y
sigue escribiendo, y al cabo de un rato, vuelve a dejar de funcionar. Cada vez que lo
sacudimos vuelve a escribir un poco. Probablemente persistiríamos más con las
sacudidas en la segunda situación, porque a veces el bolígrafo deja de funcionar, pero
luego sigue escribiendo.
Otro ejemplo es: Imaginemos una situación en la que después de comer una persona
está viendo su telenovela favorita, y de repente, la TV se comienza a ver mal. ¿Qué
hace? Probablemente le dará algún golpe a la TV, para ver si así vuelve la imagen. Si
se sigue viendo mal durante la tarde, probablemente llame al técnico para repararla.
Ahora supongamos que está viendo su programa en otra TV, que deja de verse bien de
vez en cuando. La da unos golpes en la parte superior y vuelve a verse bien. Cada vez
que la golpea puede ver un rato bien la TV. ¿En qué situación es más probable que siga
golpeando la TV? Obviamente en la segunda, porque la TV se ve mal, pero lo normal
es que vuelva a verse bien. Las conductas que han sido reforzadas intermitentemente la
extinción tardarán más tiempo en actuar
2.6.La conducta a extinguir puede empeorar antes de mejorar
El efecto rebote son conductas que durante la extinción se incrementan
llamativamente antes de empezar a desaparecer. Las cosas se ponen peor antes de
mejorar. Por ejemplo, Supongamos el caso de un niño que llora cada vez que sus padres
de acuestan para dormir la siesta. Habitualmente acuden para ver si le pasa algo. Si los
padres observan durante un rato la duración y la intensidad de esos episodios de llanto
5
y luego introducen la extinción (no acudir cuando llora), probablemente observarán un
incremento en la intensidad del llanto durante los primeros minutos, antes de que la
conducta comience a desaparecer gradualmente.
Esto ocurre porque las personas han aprendido que, si algo deja de ser reforzado por un
tiempo, un ligero incremento de la conducta puede bastar para conseguir de nuevo lo
que pretendemos. Si esto sucede los padres de “ablandan” porque creen que el niño va
a sufrir algún tipo de convulsión por llorar amargamente, supondrán que la extinción
no funciona, y abandonarán el procedimiento a mitad de programa, con lo cual se
reforzará aún más la conducta de llanto.
La norma a seguir es: si se inicia la extinción hay que mantenerla. Haciéndolo se
conseguirán resultados a largo plazo. De lo contrario estaremos reforzando esa
conducta de forma intermitente, haciendo más difícil su extinción.
Cuando el efecto de rebote puede producir daños a la persona, es mejor utilizar
otra técnica alternativa para reducir la conducta.
2.7.La extinción puede producir cierta agresión que interfiere con el
programa.
La extinción puede ocasionar agresiones moderadas, por ejemplo, Dar una patada a
una máquina petaco cuando metes la moneda y no funciona, golpear la máquina de café
o Coca-Cola en ese mismo caso. El niño que ve que no consigue que sus padres accedan
a sus deseos cada vez que llora estrepitosamente en el centro comercial, puede optar
además por dar patadas a sus padres, insultarles, etc.
Abandonar la extinción en ese momento, no sólo reforzara la conducta no deseada
mediante programa intermitente, si no que reforzara también la agresión
moderada adicional que puede darse y no deseamos.
Es útil combinarlo con refuerzo positivo de conductas alternativas y encontrar un
contexto adecuado para manejar la hostilidad.
2.8. La conducta extinguida puede reaparecer tras una demora
Un comportamiento que haya desaparecido completamente durante una sesión de
extinción, puede volver a ocurrir después de algún tiempo, cuando se dé una nueva
oportunidad a la aparición de tal comportamiento, esto se llama, recuperación
espontánea.
El volumen de conducta restablecida es menor que el que tenía lugar antes de la última
sesión, si se produce, lo más adecuando es continuar con el programa de extinción
Por ejemplo, Imaginemos que en una familia Alicia, una niña de 7 años siempre que
están en la mesa eructa. Sus padres deciden no prestarle atención, y al final de la comida
la niña no eructa más. Sin embargo, en la comida siguiente vuelve a comenzar a eructar
3. Los peligros de la extinción
Como la ley de gravedad, el principio del refuerzo positivo y otras leyes naturales, el
principio de extinción opera tanto si se es consciente de él como si no. Desafortunadamente,
las personas que no están al tanto de la extinción pueden aplicarla inconscientemente a la

6
conducta deseable de sus amigos, conocidos, familiares, y otros. Ellos pueden, a largo plazo
contribuir al decremento de un comportamiento deseable.
P.E. Supongamos que en un programa para deficientes evolutivos, un niño ha sido reforzado,
con la ayuda de un auxiliar, para que se vista él solo. Supongamos además que ese auxiliar ha
salido de vacaciones, y es reemplazado por otro que no está familiarizado con los
procedimientos de R+ y extinción. Enfrentado a un niño que se viste por sí mismo y muchos
niños que no lo hacen, el nuevo asistente seguramente empleará mucho tiempo en ayudar a
estos niños, prestando muy poca atención a aquel. En el hombre se da una tendencia común a
prestar mucha atención a los problemas y a ignorar las situaciones en las que las cosas parecen
ir bien. Es fácil razonar esta atención selectiva. “Después de todo” podría decir el asistente,
“¿por qué voy a reforzar al niño a hacer algo que ya sabe hacer?”. A pesar de que este
razonamiento pueda parecer razonable, sabemos que si la conducta del niño de vestirse por sí
mismo ha de mantenerse tras haberse logrado, hay que reforzarla de vez en cuando
4. ¿Que se aprende en la extinción?
4.1. Efectos paradójicos de la recompensa
Humphreys (1939) El efecto paradójico del refuerzo parcial sobre la extinción
(ERPE), antes de esa demostración se pensaba que la extinción reflejaba la fuerza
asociativa de una respuesta, que estaba determinada por la frecuencia con la que
había sido reforzada. Cuanto más a menudo se reforzará la respuesta mejor se
aprendería y sería más persistente en la extinción. Como se refuerza más a menudo en
el refuerzo continuo se esperaba que la resistencia también fuera mayor, sucede todo lo

contrario.
La extinción es mucho más lenta y produce menos reacciones de frustración si
estaba en activo un programa de reforzamiento parcial en lugar de uno continuo antes
de la introducción del procedimiento de extinción. Las conductas que han sido
reforzada intermitentemente (reforzamiento parcial o RFP en la gráfica) son
mucho más persistentes que las que lo han sido de forma continua (reforzamiento
contínuo o RFC en la gráfica): Efecto Del Reforzamiento Parcial En La Extinción
(ERPE). La persistencia en la respuesta que se genera es muy destacable: los
jugadores habituales están a merced del reforzamiento intermitente. Las ganancias
ocasionales las animan a continuar jugando, a pesar de largos periodos de pérdidas.
También puede ocasionar dificultades: reforzamiento intermitente de conductas de
pedir chucherías de niños pequeños.
4.2. Teorías sobre el ERPE: teoría de la frustración de Amsel (1992)
Considera los efectos emocionales de la ausencia de la recompensa: la ausencia de
reforzamiento es especialmente molesta cuando anticipamos que vamos a ser

7
reforzados. Las consecuencias emocionales de la ausencia del reforzamiento
dependen de la historia del sujeto: si se ha experimentado o no reforzamiento, se
esperará o no y su ausencia será frustrante o no. La frustración es la experiencia
desagradable que provoca una retirada de la situación. En el corredor, la rata
abandona o deja de correr hacia la caja-meta.
En el reforzamiento parcial, la persistencia es el resultado de aprender a responder ante
la frustración anticipada.
- Los sujetos se encuentran repetidamente con la frustración.
o Estos programas producen tanto anticipación de recompensa como
anticipación de frustración
- La Respuesta I ante la frustración es abandonar la caja-meta.
o No es productivo, por que perderían la comida que de vez en cuando se da
allí
o Por ello los sujetos pueden ser reforzados por responder cuando
anticipan que van a ser frustrados. De hecho, la respuesta instrumental se
condiciona a la expectativa de ausencia de recompensa. De este modo se
persiste cuando se introduce la extinción.
El reforzamiento intermitente incluye estadios reforzados y no reforzados. Los
reforzados animan a los sujetos a esperar el R+ y los no recompensados a esperar
la ausencia de recompensa. Así se produce el aprendizaje de expectativas de
recompensa y de no recompensa. Al principio del entrenamiento intermitente ambos
tipos de expectativas están presentes y provocan tendencias de respuesta opuestas. A
medida que el entrenamiento continúa, el conflicto se resuelve a favor de responder.
Como el reforzamiento no es predecible, debido a la experiencia, la R instrumental
se condiciona a la expectativa de ausencia de recompensa

La respuesta de abandonar o no correr hacia la meta se utiliza para explicar la


disminución de respuestas tras un reforzamiento continuo. Estos sujetos no tienen
oportunidad de aprender a realizar las respuestas cuando anticipan que van a ser
frustrados, y nunca son reforzados por ello. Cuando se encuentran por primera vez
con la frustración en la extinción, está elecita rápidamente la RI de abandono, lo
cual no sucede en los sujetos entrenados en reforzamiento parcial
4.3. Teorías sobre el ERPE: teoría secuencial de Capaldi (1971)
Los sujetos son capaces de recordar si habían sido reforzados o no en el ensayo
precedente. La respuesta se da en presencia del recuerdo de la consecuencia del ensayo
precedente. La memoria de la ausencia de la recompensa llega a ser una clave para la
realización de la respuesta instrumental. Esto es lo que produce la persistencia en la
extinción.

8
Experimento con ratas en un contenedor, La rata sale del comportamiento de salida y
corre hasta el comportamiento Meta en el que se recibe (o no) el refuerzo (alimento).
Er: Recuerdo del reforzamiento en el ensayo del condicionamiento anterior
No Er: recuerdo de ausencia de reforzamiento en el ensayo de condicionamiento
anterior.
R: Respuesta instrumental
Er: reforzamiento
No Er: Ausencia de reforzamiento,
En un programa de reforzamiento continuó RFC se refuerza la R en cada
ensayo
El recuerdo de la consecuencia del ensayo anterior es siempre el
recuerdo de un ensayo reforzado (Er). A causa de esto, como
aprendizaje resultante, los sujetos reforzados de forma continua
aprenden a correr en respuesta al recuerdo de la recompensa: Er-R
El programa de refuerzo intermitente o parcial (RFP)
La R puede ser reforzada tanto cuando se recuerda el reforzamiento
previo Er, como cuando se recuerda que no ha habido reforzamiento
previo no ER. Como aprendizaje resultante aprenden tanto Er-R
(igual que en el refuerzo continuo), como noEr-R
Durante la extinción:
La asociación noEr-R es un factor crítico que produce la persistencia
una vez que comienza el proceso de extinción después del entrenamiento
en RFP, porque la extinción consiste en una serie de ensayos no
reforzados.
En cambio, los sujetos RFC no han aprendido a responder ante el
recuerdo de la ausencia de recompensa y serán menos persistentes
una vez que comienza el proceso de extinción.
El elemento responsable del ERPE es cómo llega a condicionarse la respuesta
instrumental al recuerdo de la recompensa y su ausencia. Con pocos ensayos más
persistencia concadenas de no refuerzo (N) cortas más frecuentes y menos ocurrencia
de cadena (N) largas. Con muchos ensayos más persistente con cadenas N largas.

9
4.4. Ambas teorías del ERPE
La Teoría Secuencial de Capaldi se centra en los efectos de las secuencias de ensayos
y en la transición de ensayos no reforzados a reforzados en RFP y en que los sujetos
necesitan estas transiciones para aprender a responder cuando recuerdan que no han
sido reforzados en el ensayo precedente.
La Teoría Frustración de Amsel, se centra en los efectos emocionales de la ausencia
de recompensa y el aprendizaje sobre expectativas de recompensa y de frustración
Ambas teorías se parecen en que señalan que la respuesta instrumental se condiciona a
claves internas:
T. Secuencial Capaldi T, Frustración Amsel
Recuerdo de recompensa/no recompensa Expectativas de frustración
en ensayo previo
Los mecanismos de memoria son Se necesitan varios ensayos para que se
operativos desde el inicio del desarrollen en un entrenamiento RFP
entrenamiento RFP
Explica mejor los efectos de extinción Explica mejor la persistencia tras un
tras pocos ensayos de entrenamiento gran número de ensayos de
entrenamiento.

10
TEMA 9: REFORZAMIENTO INTERMITENTE
1. Como mejorar el nivel de trabajo de Jan en clase de matemáticas
Jan es una niña de 13 años, de inteligencia media, matriculada en séptimo curso en la escuela
elemental Humbolt State College. En las clases de matemáticas se distrae a menudo y comete
muchos errores en los problemas aritméticos. Con la ayuda de su profesora, dos modificadores
de conducta introdujeron un programa orientado a mejorar el ritmo de trabajo de la alumna.
Uno de ellos trabajaba con ella diariamente durante la clase de matemáticas, en que le
entregaban un cuaderno con los problemas que tenía que resolver. Durante los dos primeros
días, en cuanto Jan resolvía DOS problemas correctamente, la terapeuta le decía, “BUEN
TRABAJO” o “UN TRABAJO EXCELENTE” o algún otro comentario positivo parecido.
Durante los dos días siguientes, aumentó a CUATRO la cantidad de problemas que la
estudiante tenía que resolver correctamente antes de recibir el elogio y, dos días después,
incrementó el requisito hasta OCHO problemas antes de los halagos. Durante los últimos dos
días de intervención, Jan tenía que acabar DIECISÉIS problemas antes de recibir los
comentarios positivos. El programa de elogios tuvo un efecto positivo sobre el rendimiento de
la estudiante ya que logró TRIPLICAR la tasa de solución correcta de problemas. Comparando
la secuencia de principio a fin, la velocidad de trabajo más alta se produjo cuando recibía el
comentario positivo tras DIECISÉIS problemas resueltos. Es más, al final de la intervención,
Jan no se distraía y permanecía atenta a la tarea el 100% del tiempo
1.1. Definiciones
Programa de refuerzo: regla que especifica que incidencias de una conducta se
reforzarán
Refuerzo Continuo: Muchas conductas de la vida cotidiana son reforzadas según un
programa así: cada vez que se abre el grifo sale un chorro de agua, cada vez que se
introduce y gira la llave de la puerta de casa, se es reforzado por el hecho de entrar.
Extinción; en ningún caso se refuerza una conducta. Al final la conducta disminuye a
un nivel bajo o desaparece.
El refuerzo intermitente se sitúa entre el refuerzo continuo y la extinción. Después
de estudiar no siempre se obtienen buenas notas. Hay que trabajar una hora para
conseguir el sueldo correspondiente a esa hora, aunque no se consigue el cheque hasta
final de mes. La regla que especifica el procedimiento para reforzar una conducta
sólo en algunas ocasiones.
Existen programas intermitentes que incrementan y mantienen la conducta, con
diversas ventajas sobre el refuerzo continuo:
A) El reforzador es eficaz durante más tiempo (la saciedad aparece más
lentamente)
B) Se necesita más tiempo para extinguir una conducta que ha sido reforzada
intermitentemente, que para una que ha sido reforzada de forma continua
C) Las personas trabajan de manera más estable en algunos programas
intermitentes

1
D) Las conductas reforzadas así, persisten más fácilmente cuando se transfieren
a los reforzadores del entorno natural.
Los tipos son de; razón, intervalo simple, intervalo con márgenes limitados y de
duración (fijos y variables)
2. Programas de razón
Se usan cuando se pretende generar una alta frecuencia de R y se puede observar la R:
- Razón Fija: el refuerzo aparece cada vez que se emite un número determinado de una
clase de RR. Tasa de R estable, con pausa postforzamiento y alta resistencia a la
extinción. Evitar superar la tensión de razón. En el ejemplo de Jan, primero se trabajó
con programas de RF (2), RF (4), RF (16). Se hizo progresivamente para evitar superar
la tensión de la razón y que la conducta se extinguiera. PE. Pagar a un trabajador por
número específico de piezas terminadas, hacer un número concreto de problemas o leer
una serie de páginas para terminar los deberes.
- Razón Variable: el número de RR requeridas para cada aparición del refuerzo varía en
torno a un valor medio especificad. P.E. Representante que durante un mes consigue
una media de una venta por cada 10 visitas. No hay pausa postreforzamiento, se
pueden aumentar más abruptamente que RF sin superar la tensión de la razón, tasa de
R más elevada y más resistencia a la extinción que RF. PE. Pedir a alguien cita para
salir, máquinas tragaperras, lanzar un sedal para pescar
El programa de RF se usa más que el RV en los programas conductuales, porque resulta
más fácil de aplicar. P.E. Para enseñar a niños deficientes los nombres de dibujos de objetos:
el profesor dice varias veces el nombre del objeto para que el niño lo imite, y otras exige que
el niño nombre correctamente el dibujo. Las respuestas correctas son reforzadas con elogios y
con golosinas. Sin embargo, los niños responden más correctamente y aprenden a nombrar más
dibujos cuando las respuestas acertadas están reforzadas con una golosina en un programa de
razón, que cuando están reforzadas continuamente por la golosina. Esto funciona sólo si el
programa de RF no requiere demasiadas RR correctas por cada refuerzo.
2.1. Razón Fija
Se refuerza al organismo sólo después que ha emitido un número fijo de
respuestas. Las características son:
- Pausa postreforzamiento: la tasa de RR cesa después de la entrega del R+. A
medida que aumenta el tamaño de la razón, la duración de la pausa se hace
mayor La duración de esta pausa depende del tamaño de la razón. Si el tamaño
de la razón es elevado, la pausa postreforzamiento será más prolongada. P.e. si
se abandona antes de empezar una tarea de razón como lavar el coche, es porque
no se está lo bastante preparado para acometer el trabajo, no porque se esté
“descansado” desde la última vez que se realizó dicho trabajo. Por tanto, la
pausa postreforzamiento podría recibir la etiqueta más apropiada de pausa pre-
razón.
- Carrera de razón: después de la pausa, la tasa de R es alta y estable, sin pausas
hasta el siguiente R+.

2
- Tensión de la razón: hay que incrementar poco a poco el tamaño del programa
para que no se produzca la extinción
- Produce un patrón de carrera descanso
Por ejemplo: Cada hoja de ejercicios en unas clases de matemáticas tiene 4 problemas,
y los estudiantes reciben un premio por cada hoja de ejercicios que completen.

Registro acumulativo de los picotazos dados por una paloma reforzada según un
programa de razón fija de un reforzamiento por cada 50 picotazos.
A nivel práctico: después de realizar alguna tarea (p.e. acabar de escribir un trabajo) y
antes de comenzar con el trabajo siguiente se produce la pausa postreforzamiento.
Una forma de evitar que esa pausa se prolongue eternamente es comenzar la tarea
con una pequeña cantidad de esfuerzo (p.e. escribir el primer párrafo del artículo, o
barrer la habitación en una tarea de limpieza general). El resto resultará más fácil.
2.2.Razón Variable
Es el número de respuestas que tiene que emitir un sujeto para obtener el R+ es
variable, y su valor medio aparece especificado en el programa:
- Tasa muy elevada de respuestas
- No hay respuestas postrereforzamiento
Por ejemplo, Cada vez que un conserje entre en una habitación mientras realiza su ronda
sabe que en esa estancia será necesaria cierta cantidad de limpieza, pero no sabe cuanta.

Programa RV picotazos de una paloma en RV-100

3
Los programas de razón adecuados cuando se quiere generar tasa elevada y se puede
registrar las respuestas (hay que contarlas para reforzar). La RF se emplea más a menudo
que la RV por que su administración es más sencilla. Se ha empleado para que niños con
alteraciones de desarrollo aprendan a denominar dibujos de objetos. Se diseña una secuencia
en la que a veces los monitores dicen el nombre del objeto para que los niños lo imiten, y en
otras son los estudiantes quienes tienen que denominar los dibujos correctamente. Las
respuestas adecuadas se refuerzan mediante elogios y alguna golosina. Los niños dicen más
respuestas correctas y aprenden a denominar más dibujos cuando las golosinas se reparten
conforme a un programa de razón que cuando todas las verbalizaciones adecuadas se refuerzan.
(Pear, Wray y Jackson, 1975
3. Programas de Intervalo Simple
Intervalo Fijo: se refuerza la primera respuesta después de transcurrido un periodo de tiempo
fijo tras la última aparición del R+.
Intervalo Variable: la duración del intervalo cambia de un refuerzo al siguiente de forma no
predecible, variando alrededor de un promedio.
3.1. Intervalo Fijo
El intervalo reforzador está disponible cuando el sujeto emite una Respuesta una
vez que ha transcurrido una cantidad fija de tiempo a partir del Refuerzo Positivo
anterior:
- No se responde al principio de intervalo temporal (equivale a la pausa
postrereforzamiento de RF).
- La tasa de R aumenta a medida que se acerca el final del intervalo,
respondiendo con una tasa alta justo cuando el IF termina (efecto de
festoneado).
El Intervalo Fijo se refuerza la primera respuesta después de transcurrido un
periodo de tiempo fijo tras la última aparición del R+. En este momento comienza
un nuevo intervalo. El único requisito para que se dé el refuerzo, es que la persona
realice dicha conducta cuando el refuerzo está disponible debido al paso del tiempo.
Los requisitos son:
A) No se limita el tiempo que puede transcurrir después del fin del intervalo para
que la respuesta sea reforzada.
B) Una respuesta que se dé antes de que acabe el intervalo específico de tiempo,
no tiene ningún efecto sobre la aparición del refuerzo.
4
P.E. Niños pequeños que juegan juntos cada mañana. Dos horas después del desayuno
y dos horas más tarde el padre tiene preparado el almuerzo y la comida (IF 2-horas).
Dentro de cada periodo de 2 horas, a medida que se acaba el tiempo, los niños
comienzan a ir a la cocina con mayor frecuencia, preguntando continuamente ¿Está
lista la comida? Después de comer, salen fuera y juegan, produciéndose una pausa
bastante larga antes de que vuelvan a la cocina otra vez. El comportamiento de los niños
de ir a la cocina es característico del refuerzo de la conducta en un programa de IF.
Características si la persona no posee acceso a un reloj: a) El nivel de R se
incrementa se incrementa gradualmente a lo largo del intervalo hasta que aparece
el refuerzo; b) pausa postreforzamiento, que depende del valor del intervalo
Sin embargo, la mayoría de las personas confían en sus relojes para que les
indiquen cuándo hacer las cosas que son reforzadas por un programa de IF.
Generalmente, esperamos hasta que el reforzador esté disponible, emitimos una R y lo
recibimos.
Por ejemplo: Un curso universitario en el que todas las semanas, el mismo día se
presentara un EXAMEN y que por lo tanto el patrón de estudio de los alumnos
probablemente se asemejara al típico en un programa de intervalo fijo, es decir, apenas
nadie estudiaría inmediatamente después del examen, pero el estudio aumentaría a
medida que se aproximara el día de la prueba. No obstante, planteémonos las dos
preguntas que nos hacíamos anteriormente: ¿los alumnos pueden esperar a que
transcurra una semana y hacer “una” respuesta de estudio para aprobar? No. Sacar
buena nota es contingente con haber estudiado durante toda la semana. ¿Responder
durante el intervalo tiene algún efecto? Si. Contribuye a obtener mejor calificación. Por
tanto, AUNQUE EN CIERTO SENTIDO SE PAREZCA, ESTE NO ES UN EJEMPLO
DE INTERVALO FIJO.

3.2.Intervalo Variable
El intervalo variable el refuerzo positivo está disponible si el sujeto emite una
respuesta una vez que ha transcurrido una cantidad de tiempo variable (cuyo valor
medio se especifica en el programa) desde el último refuerzo positivo. Una vez que
refuerzo positivo está disponible, permanece ahí al salir el sujeto responde para
obtenerlo:
- Tasa de respuesta estable y sin pausas.
- Tasa de respuesta baja.

5
En el Intervalo Variable la duración del intervalo cambia de un refuerzo al siguiente de
forma no predecible, variando alrededor de un promedio. Produce una moderada
frecuencia de respuestas, y no provoca pausa postreforzamiento. Alta resistencia a la
extinción, que se mantiene durante mucho tiempo, aunque con una tasa más baja
que en programas RF y RV.
Por ejemplo: tiempo empleado en preparar un café en una fogata o ir al Banco a
comprobar si nos han ingresado el dinero en cuenta.

Los programas de intervalo fijo intervalo variable no suelen usarse en el ámbito aplicado por:
A) El intervalo fijo produce pausas post-reforzamiento prolongadas.
B) El intervalo variable, aunque no produce pausas post-reforzamiento, genera una
tasa de respuesta más baja que los programas de razón
C) Estos programas requieren control continuo del comportamiento después de cada
intervalo hasta que ocurre la respuesta para admirar el refuerzo positivo
3.3. Comparación de programas Razón-Intervalo

6
Datos hipotéticos de registros acumulativos de presión palanca en distintos programas
de reforzamiento.
SIMILITUDES:
- Tanto RF-IF producen pausas postreforzamiento. Producen altas tasas de
RR justo antes de la administración del siguiente reforzador.
- RV-IV mantienen tasas estables de respuestas, sin pausas predecibles.
Sin embargo, ambos tipos de programas NO MOTIVAN LA CONDUCTA DE LA
MISMA MANERA. Activan distintos cambios neuroquímicos en el cerebro: la
conducta mantenida por programas de intervalo está mediada por el sentido corporal
del organismo, mientras que los mecanismos temporales no están involucrados en los
programas de razón.
4. Programas de intervalo con márgenes limitados
Estrategia para controlar la conducta de los chicos en el coche durante un viaje familiar. Los
dos niños (con una diferencia de 2 años y medio entre ellos) reñían continuamente en los
asientos traseros durante las excursiones familiares. Los padres compraron un reloj despertador
que pudiese ser programado por encima de 25 minutos, y originase un fuerte sonido cuando
llegase el tiempo marcado. Al inicio del viaje, explicaron las nuevas reglas a los niños: “este
es el trato. Si cada vez que el despertador haga ring, estáis jugando sin pelear, ganaréis 5
minutos extra para ver la TV por la noche en la habitación del hotel (un poderoso R+ para los
chicos). Pero si estáis riñendo, perderéis esos 5 minutos y no los podréis recuperar. Jugaremos
a esto hasta que lleguemos allí”. Después de esto, los padres ajustaron el reloj a intervalos al
azar a lo largo del viaje. Los resultados fueron milagrosos. De un no parar de reñir, los chicos
cambiaron a juegos, en su mayor parte, de colaboración mutua. Aunque se requería sólo un
instante en este tipo de juego para ganar el reforzador, los niños no sabían nunca cuando
surgiría. No paraban de jugar.
Un programa de intervalo con márgenes limitados es lo mismo que un programa de
intervalo simple, con el requisito añadido de que la respuesta debe darse en un tiempo
limitado del que se dispone nada más haya transcurrido el intervalo. Es decir, una vez que
el refuerzo es “establecido”, su disponibilidad se “margina” sólo durante un periodo limitado.
La notación es escribir la abreviatura “/ML” y el valor del margen limitado tras la abreviatura
del programa. En el ejemplo de los niños: IV(25)/ML 0 segundos (tenían que estar
comportándose bien en el mismo instante en que sonara el despertador. Efectos similares a
programas de razón si el ML es pequeño:
- para programas de intervalo fijo pequeños, el IF/ML produce efectos similares a
los producidos por programas RF
- IV/ML produce efectos similares a los programas RV.
Es útil cuando un profesor quiere provocar un comportamiento similar a los que provocan los
programas de razón, pero no puede llevarse la cuenta de frecuencia de conductas (p.e. Cuando
el profesor puede observar el comportamiento sólo periódicamente o a intervalos irregulares).
Es muy empleado en ámbito aplicado, por ejemplo:

7
- IF/ML es esperar el autobús, que circulan cada 20 minutos y sólo esperan 1 minuto
(tiempo limitado) en la parada. Si la persona no está en la parada en ese tiempo limitado,
perderá el autobús.
- IV/ML es llamar por teléfono a un amigo cuya línea está ocupada. Mientras esté
ocupada la línea no conseguiremos hablar con él por mucho que marquemos, y no habrá
manera de predecir durante cuanto tiempo la línea continuará ocupada. Al terminar esa
llamada, nuestro amigo puede irse o recibir otra llamada. Si no llamamos durante uno
de los periodos limitados en los que la línea está libre y nuestro amigo está en casa,
perderemos el refuerzo de hablar con él y tendremos que esperar a otro periodo no
predecible antes de que tengamos una nueva oportunidad de obtener ese refuerzo en
particular.
Estos programas son muy habituales en proyectos de modificación de conducta. P. E.
Profesor que se enfrenta a aula con niños incontrolables y utiliza un programa de IV 30-
minutos/ML 0-segundos para reforzar el comportamiento de estar en los pupitres (R+ puntos
acumulables e intercambiables por puntos extra)
5. Programas de duración
El refuerzo se presenta después de que la conducta haya aparecido continuamente
durante un período de tiempo. Ambos producen largos períodos de conducta sostenida:
- Duración fija (DF): produce pausa post-refuerzo.
- Duración variable (DV): no produce pausa post-refuerzamiento o muy leve
El programa es útiles cuando la conducta meta puede medirse continuamente y sea
reforzada según su duración. Por ejemplo: tocar el piano durante una hora.
Otros ejemplos en el entorno natural son:
- Reforzar la conducta de estudio, aunque hay que comprobar de algún modo que el
alumno está realmente estudiando y no haciendo otra cosa durante el intervalo de
tiempo. Útil el refuerzo de RESULTADOS.
- Trabajador al que se paga por horas: DF.
- Soldar dos piezas de metal (DF): para soldar hay que sostener el extremo del soplete
sobre el punto de soldadura durante un periodo continuo y fijo de tiempo. Si la punta
del soplete se mueve, la soldadura se enfría rápidamente y habrá que comenzar de nuevo
aplicando calor durante el mismo periodo continuo de tiempo.
- Frotar dos palos entre sí para producir fuego (DV), porque la cantidad de tiempo que
esto precisa varía en función de factores como tamaño, forma, o sequedad de los palos.
- Esperar a que se despeje el tráfico antes de cruzar una calle muy transitada (DV)
Programas útiles cuando la conducta meta puede medirse continuamente y reforzada
según su duración (p.e. Tocar el piano durante una hora). No útil para reforzar la conducta de
estudiar 1 hora, porque no se sabe la actividad que realiza el alumno en ese tiempo. En
educación especial, útil para reforzar por ejemplo la conducta de contacto visual.
6. Programas de refuerzo concurrentes

8
Situaciones en las que el sujeto tiene varias opciones de acción diferentes (cada
comportamiento que esté reforzado por un programa distinto).¿Qué opción tiene más
posibilidades de ser elegida?
Herrstein en 1961 formula la Ley de Igualación donde la tasa relativa de respuestas o el
tiempo empleado en una alternativa es igual a la tasa relativa de reforzamiento para esa
alternativa
En la mayoría de las situaciones contamos con varias opciones de acción diferentes y así, los
estudiantes llegan a casa y pueden ver la televisión, navegar por internet, hacer los deberes,
charlar por teléfono con los amigos y otras muchas conductas alternativas. Esto ilustra como
aplicación de lo que son programas de refuerzo concurrentes. En la caja de Skinner hay dos
palancas A y B si pulsa la A es RF (8) si pulsa la B (IV30”)
Otros factores que también influyen en elegir una opción entre varios programas de refuerzo
alternativos:
- Tipos de programas de refuerzo activos.
- Magnitud del refuerzo.
- Esfuerzo necesario para responder en las distintas opciones.
De este modo, el programa de refuerzo que mantiene la conducta deseada implica más
refuerzos inmediatos frecuentes y potentes, y una respuesta menos costosa que el
comportamiento que tenemos que extinguir.
7. Los peligros del refuerzo intermitente
El uso inconsciente de la extinción: ante la persistencia inicial de comportamiento las
personas acaban reforzando intermitentemente la conducta (por qué “la extincion no
funcionaba”) con lo cual éstas se hacen más persistente y su extinción requiere más tiempo.
o p. E. Un padre trata de ignorar en un primer momento los berrinches de su hijo: ante la
persistencia inicial del comportamiento las personas acaban reforzando intermitentemente la
conducta (porque “la extinción no funcionaba”), con lo cual ésta se hace más persistente y su
extinción requiere más tiempo.
En nuestro trabajo hemos encontrado casos de niños que han llorado hasta quedar exhaustos y
que, una vez han descansado, comienzan a llorar de nuevo (recuperación espontánea). Al
final, incluso esos berrinches severos pueden eliminarse a través de la extinción, pero esto
requiere de una gran cantidad de tiempo y paciencia. Probablemente eso es debido a que
cuando comenzaron esos comportamientos, se les reforzó intermitentemente de forma
inadvertida.

9
RESUMEN 1
RF: tasa alta y estable, pausa postreforzamiento corta, alta RE
RV: tasa alta y estable, sin pausa postreforzamiento, alta RE
Aplicación: para incrementar y mantener niveles de RR específicas que puedan contarse
fácilmente, como pelado de cables, solución correcta a problemas matemáticos o repetición
correcta de habilidades deportivas.
RESUMEN 2
IF: La Tasa se incrementa gradualmente; pausa postrefuerzo larga; RE moderada
IV: Tasa moderada y estable; sin pausa postreforzamiento; alta RE
Aplicaciones: no se usan normalmente en programas comportamentales.
RESUMEN 3
Intervalo ML Fijo: tasa estable y alta (con pequeños intervalos); pausa postrefuerzo corta; RE
moderada
Intervalo/ML Variable: Tasa alta y estable; sin pausa pstrefuerzo; alta RE
Aplicaciones: para incrementar la duración o frecuencia de conductas de niños en aula,
colaboración niños en excursiones familiares en coches...
RESUMEN 4
Duración Fijo: Comportamiento continuo, resistencia a la extinción (RE) moderada.
Duración Variable: Comportamiento continuo; alta RE
Aplicaciones: para incrementar mantener conductas que pueden ser observadas continuamente
y que deben persistir durante todo un período de tiempo cómo tocar un piano.

10
TEMA 10: DISCRIMINACIÓN Y GENERALIZACIÓN DE ESTÍMULOS

“Por favor niños, ahora a trabajar en vuestros pupitres”


La profesora de tercero de una escuela primaria tenía problemas: cuando daba las instrucciones
en clase, quería que los alumnos le escucharan atentamente sentados en sus pupitres, y mientas
trabajaban, quería que lo hicieran individualmente en silencio. Pero 9 de los 34 estudiantes
tenían dificultades especiales tanto para atender, como para permanecer sentados en los
pupitres; además, frecuentemente se peleaban, gritaban, se pegaban entre sí, golpeaban los
muebles y salían de clase sin permiso. Es cierto que a veces sí escuchaban atentamente y
trabajaban en silencio, pero ni lo hacían con la suficiente frecuencia, ni lo hacían cuando la
profesora quería. Esta era una situación en que evidentemente la conducta no deseada (escuchar
o trabajar) estaba presente en el repertorio comportamental infantil, es decir, podían llevar a
cabo estas acciones, pero no se producía cuando era necesario.
Durante varias mañanas, unos observadores registraron el comportamiento adecuado de los 9
alumnos problemáticos, mientras la profesora impartía la lección, cuando tenían que
permanecer sentados en silencio y atendiendo, y durante los periodos de trabajo, cuando tenían
que escribir una redacción, hacer un dibujo o acometer otras tareas que la profesora hubiera
señalado. Habitualmente, estos 9 estudiantes mantenían comportamientos adecuados menos
del 50% del tiempo. La profesora introdujo entonces un procedimiento para conseguir que la
conducta adecuada ocurriera cuando ella quería, durante la clase diaria de lengua oral y escrita,
de 9:30 a 10:20 de la mañana. Elaboró un cartel sobre el cual escribió en un lado en grandes
letras rojas:
-ATIENDE A LA PROFESORA
-NO TE MUEVAS DEL PUPITRE
-NO HABLES.
Y al otro lado en letras verdes:
-TRABAJA EN TU SITIO
-ESCRIBE EN TU CUADERNO
-LEE LAS INSTRUCCIONES ESCRITAS EN LA PIZARRA.
A lo largo del día, la profesora iba alternando el lado del cartel que quedaba a la vista. Repartió
entre los alumnos unas tarjetas, con una cuadrícula en que, a modo de calendario, dedicaba una
fila para cada día de la semana, y les describió las condiciones de los comportamientos
adecuados mientras explicaba la lección y durante los periodos de trabajo. Les avisó de que
sonaría un “bip” varias veces durante la clase para que ellos señalaran en sus tarjetas cuál de
las conductas adecuadas estaban llevando a cabo, es decir, ver si “estás haciendo lo que el cartel
dice”. Los “bips” se producían aproximadamente cada dos minutos. Les explicó que al acabar
la clase, podrían cambiar cada marca en la tarjeta por un minuto de juego libre en la sala que
contenía varios tipos de juegos y juguetes. El programa se introdujo para todos los alumnos de
la clase, pero sólo se recogieron los datos de los nueve estudiantes pertinentes. Al poco tiempo,
se observó que el cartel que explicaba qué hacer ejercía el control deseado y les llevaba por
tanto a realizar la tarea requerida en el momento preciso. El programa aumentó el
comportamiento adecuado de los nueve alumnos hasta aproximadamente el 91% de las
ocasiones
1
2
1. Control del estímulo y entrenamiento en discriminación del estímulo
Resulta adecuado pasar la calle cuando el semáforo está en verde y no cuando está en rojo.
Resulta adecuado llevar bañador y chanclas cuando estas en la playa, no en clase. Resulta
adecuado charlar animadamente cuando estás en la cafetería, no cuando estás en clase.
La conducta no se da en el vacío; siempre estamos rodeados de personas entornos y
objetos cuando nuestra conducta es reforzada o extinguida. Es probable que por ejemplo,
cuando Alberto está trabajando en la obra con sus compañeros, diga tacos constantemente, y
que la atención y risas que recibe le sirvan de refuerzo; sin embargo, es probable que esa pauta
no sea reforzada cuando está comiendo con su familia, puesto que en esa situación su mujer le
recrimina hablar así delante de los niños. Para nuestro amigo, decir tacos llega a ser algo muy
probable en presencia de sus amigos de trabajo, y muy improbable delante de su mujer e hijos.
Sucede lo mismo por ejemplo con la conducta de fumar
Hay 3 elementos en cuenta:
A) Estímulos antecedentes: condiciones que existen inmediatamente antes de que la
conducta se produzca: Presencia de amigos o presencia de familia
B) Conducta en sí misma: decir tacos
C) Consecuencias del comportamiento: aprobación de sus amigos o reprobación de su
esposa.
Cuando un comportamiento se refuerza en presencia de un estímulo determinado, y no de otros,
este estímulo empieza a ejercer un cierto control sobre la probabilidad de que la conducta
ocurra: es más probable que la conducta se de en presencia de ese estímulo. El comportamiento
está bajo el control de ese estímulo. El control de estímulo, se refiere al grado de correlación
entre un estímulo y la respuesta posterior. Por ejemplo: cuando los alumnos ven el cartel con
el mensaje ATIENDE A LA PROFESORA, escuchaban atentamente a la explicación, porque
ello estaba reforzado.
Algunos estímulos son buenos predictores de que la conducta será reforzada, y otros de
que la conducta no será reforzada (ej: cartel de NO FUNCIONA),
El aprendizaje de discriminación de estímulo es el proceso mediante el cual se logra emitir
una conducta específica en presencia de determinados estímulos y no en la de otros.
El entrenamiento en la discriminación de estímulos implica reforzar un comportamiento
en presencia de un estímulo determinado, y la extinción de ese mismo comportamiento en
presencia de otros estímulos diferentes. Los estímulos implicados se denominan estímuoos
discriminativos, y son de dos tipos.
2. Tipos de estímulos discriminativos: Ed y EA
Un estímulo discriminativo (E^D) es el que señala que una determinada respuesta será
reforzada. Aumenta la probabilidad de que el sujeto emita la respuesta que ha sido reforzada
en su presencia. Es uno de los tipos de estímulo que controla el comportamiento.
Un estímulo delta (E^Δ) es el que esta presenta cuando la respuesta sometida a extinción o
castigo. Reduce la probabilidad de emisión de la respuesta que fue castigada o extinguida en
su presencia.

3
Un estímulo puede funcionar simultáneamente como E^D para una respuesta y como E^Δ
para otra. Es decir una respuesta se refuerza en presencia de un estímulo determinado, pero
no sucede lo mismo con otra.
- “Pasame la sal” es un estímulo discriminativo para pasar la sal y un E^Δ para pasar la
pimienta
- “Señoras” es un E^D para que encuentren las mujeres en el baño, E^Δ para que entren
los hombres.

Skinner en 1969 “una formulación adecuada de la interacción entre una persona y su


entorno, tiene que específicar:
- La ocasión en la que ocurre la respuesta (Antecedentes: A) (lugar, situación, etc)
- La respuesta (Behavior:B)
- Las consecuencias reforzantes (Consecuencias:C)
Denominamos contingencias de refuerzo a la interacción entre los tres elementos. La
evaluación de ABC es equivalente a identificar las contingencias de refuerzo que controlan
el comportamiento
El entrenamiento en discriminación de estímulo es el procedimiento seguido para
reforzar una respuesta en presencia de un E^D y extinguirla en presencia del E^Δ. Los efectos
logrados son:
- Control del estímulo: alta correlación entre un E y una R
- Discriminación del estímulo: se responde ante E^D y no ante E^Δ
El E^D no elecita o provoca la R, sino que es más probable que en su presencia el sujeta la
emita voluntariamente.
3. Generalización de los estímulos
La generalización de estímulos es el proceso opuesto a la discriminación, es la situación en
la que la persona no discrimina entre dos estímulos diferentes y responde de la misma
manera ante ellos.

4
- Generalización espontanea o no aprendida del estímulo debida a un gran parecido
físico
- Generalización de estímulos adquirida frente a semejanza física mínima
- Generalización de estímulos aprendida debido a que pertenecen a clases equivalentes
3.1. Generalización espontanea o no aprendida del estímulo debida a un gran
parecido físico
Gran valor adaptativo: ejecutar un comportamiento en una situación novedosa, si está
se parece a aquella en la que se aprendió el comportamiento. Cuanto mayor es el
parecido físico entre dos estímulos, más probable es que los generalicemos. De lo
contrario tendríamos que aprender a hacer café de nueva cada vez que estuviéramos en
otra cocina o aprender a lanzar el swing cada vez que estuviéramos ante una bola de
golf...
3.2.Generalización de estímulos adquirida frente a semejanza física mínima.
Hay objetos que comparten algunos elementos, y se diferencian en muchos otros. Es
probable que una niña que acaba de aprender a decir perro ante un pastor alemán
inicialmente no lo generalice ante un chihuahua. Esa generalización sólo se producirá
cuando haya adquirido la categoría “perro”. Una clase o categoría de estímulos con
atributos comunes está integrada por un conjunto de ejemplares que comparten algunas
características físicas (categoría perra, categoría coche...)
Los conceptos son las categorías de estímulos en los que sus miembros comparten
diversas características físicas. Para que un niño aprenda el concepto “rojo” habra que
reforzar su respuesta frente a muchos matices distintos de rojo en muchos objetos, y
extinguirla frente a lo que no sea de ese color. Al final acaban aprendiendo que un coche
rojo y un lápiz rojo ambos son “rojos”, aunque por otro lado sean objetos
completamente diferentes.
Cuando alguien emite una respuesta adecuada frente a todos los miembros de una
categoría con rasgos comunes, pero no frente a ejemplares que no pertenecen a esa
categoría, concluimos que ha generalizado los estímulos pertenecientes a una categoría
o concepto, a la vez que discrimina entre las categorías (diferencia todos los objetos
como “rojo” y la diferencia de los objetos “azules”).
Alguien muestra un comportamiento conceptual cuando exhibe este tipo de
generalizaciones y discriminaciones entre conceptos. El lenguaje no está
necesariamente involucrado:
- Herrstein, trabajando con palomas: reforzamiento por picotear ante
diapositivas de determinada categoría aprenden categorías como persona, árbol,
pez, o conceptos numéricos como 16 o 20.
3.3. Generalización de estímulos aprendida debido a que pertenecen a
clases equivalentes
Si nos piden que identifiquemos los elementos comestibles: lápiz, pan, manzana,
piedra. Los identificamos bien, aunque no hay similitudes físicas entre ellos
pertenecen a clases equivalentes, es decir, hay equivalencia entre las categorías
formadas por estímulos completamente distintos que controlan la misma respuesta de
“alimento”.

5
A lo largo de la vida se adquieren muchas relaciones de equivalencia, en las que todos
los miembros de una categoría controlan la misma respuesta, aunque físicamente no
haya ningún parecido entre ellos. Decimos que los integrantes de un concepto de
equivalencia “significan” lo mismo (como tipos de “vegetales” de “utensilios” para
comer). Estas categorías con elementos equivalentes son también conceptos.
3.4. Resumen
Si una respuesta que ha sido reforzada frente a un estímulo determinado se
produce también frente a un estímulo diferente, decimos que se ha producido una
generalización de estímulo, ya sea debido a:
-La generalización de un proceso aprendido
-El aprendizaje de una categoría cuyos integrantes comparten rasgos
-El aprendizaje de una categoría cuyos miembros son funcionalmente
equivalentes
4. Discriminación del estímulo. Factores implicados.
No siempre es deseable que se produzca la generalización de estímulos, sino que hay ocasiones
en las que es fundamental que se produzca una buena discriminación.
4.1. Elegir señales claras
Si hay que desarrollar el control de estímulos en una conducta determinada, hay
que emplear estímulos discriminativos muy claros:
- ¿Se diferencia este estímulo de otros en más de una dimensión (localización,
tamaño, color modalidad sensorial)? (agua y pan)
- ¿Es un estímulo que puede presentarse sólo en las ocasiones en que la respuesta
deseada ha de ocurrir, y así poder evitar que aparezca en otras situaciones?
- ¿Es probable que la persona atienda a este estímulo cuando se le presente?
- ¿Hay alguna respuesta no deseada que esté gobernada por ese estímulo?
Por ejemplo, Uso de grandes letras rojas para el cartel que indicaba a los estudiantes
que tenían que escuchar y atender a la profesora y grandes letras verdes cuando el cartel
indicaba que los alumnos tenían que trabajar en sus pupitres
4.2. Minimizar las oportunidades de que se produzcan errores
Entendemos por errores de discriminación las ocasiones en las que se responde
frente al estímulo delta. Se trata de maximizar la posibilidad de discriminar las
señales y de que se produzca menos frustración. Si queremos que un niño aprenda a
coger el teléfono cuando suena, sería útil no dejarlo a su alcance cuando no suene y
hacerlo cuando suene. El procedimiento del teléfono iría acompañado de instrucciones
como” Tienes que acordarte de que no se coge el teléfono si no suena y sólo se responde
cuando estén llamando” y de “El teléfono está sonando; ahora es cuando hay que
cogerlo”.
4.3. Maximizar el número de ensayos
Son necesarios bastantes ensayos reforzados para desarrollar conductas estables
en personas con retraso cognitivo, aunque esto es válido para cualquiera que está
aprendiendo discriminaciones nuevas. Imaginemos la situación de unos amigos que

6
quedan habitualmente todos los viernes por la tarde para tomar unas cervezas. Después
unos meses, uno de los amigos cree dar pistas al otro de que no está de humor para
quedar la semana siguiente. Probablemente tendrá que comprender que quizá su amigo
no sepa responder a indicios sutiles con tan sólo uno o dos ensayos. Tras varias
ocasiones en las que haya reforzado la respuesta correcta en presencia del estímulo
discriminativo y se haya extinguido en presencia del estímulo delta, es más probable
que estos estímulos pasen a controlar el comportamiento en situaciones posteriores
4.4. Utilizar reglas: Describir las contingencias
El desarrollo del control de estímulos puede llevarse a cabo por ensayo y error
mediante el reforzamiento diferencial ante los estímulos discriminativos y delta.
Este procedimiento puede acortarse mediante el empleo de normas y reglas. Una regla
describe una contingencia entre estímulo, conducta y consecuencia. Es muy útil
presentarlas para explicar que conductas y en que situaciones conducirán a qué
consecuencias. Es muy útil presentarlas para explicar qué conductas y en qué
situaciones conducirán a qué consecuencias. El comportamiento regido por normas
está controlado por la proposición que explican las reglas.
En el caso de los alumnos del ejemplo del comienzo del tema, tras la exposición de la
profesora de las nuevas normas, se mostró un incremento inmediato de las conductas
de atención en presencia de las señales adecuadas. (ATIENDE A LA PROFESORA) y
consiguieron enseguida el refuerzo positivo
Para saber si una conducta está moldeada por las contingencias y la conducta
gobernada por reglas es preguntarse si un animal podría hacerlo. Por ejemplo, el
perro de Juan probablemente no gruñiría en casa de los abuelos si nunca se le ha
reforzado allí por hacerlo, pero tampoco podría verbalizar, ni manifestar
encubiertamente “es mejor que no gruña en casa de los abuelos de Juan, porque no me
premian por hacerlo”. En el ejemplo de Juan diciendo palabrotas, asumimos que no
verbaliza la contingencia que opera sobre su comportamiento más de lo que hace el
perro respecto del gruñido. Sin embargo, en el caso de los alumnos del aula, sí
observamos que verbalizan las normas que se les presentaban, que a su vez ejercían un
control directo sobre el comportamiento, por tanto se trataba de un comportamiento
gobernado por reglas
5. Errores en el entrenamiento discriminación del estímulo
María de 3 años mira la TV mientras su madre la dice en un tono tranquilo “Vamos, A
COMER”. María continúa viendo la TV y un minuto más tarde su madre le dice un poco más
alto y más enfadada “María, te he dicho que apagues la TV pero sigue mirándola. Su madre va
al congelador y grita “Ya está bien, ¿es que siempre me tengo que enfadar para que hagas las
cosas? Finalmente, María va a la cocina y su madre le dice ¿Y por qué no lo haces así desde el
principio?
La madre está reforzando a María para que responda sólo cuando las amenazas han alcanzado
un tono elevado, La niña ha aprendido a no responder hasta que la madre está realmente
enfadada antes de hacer sus peticiones. Si tienes la sensación de que hay personas a las que
tienes que decirles muchas veces las cosas para que hagan caso, o que nadie te escucha, o que
los demás no hacen lo que deberían en el lugar y momento adecuados, debes revisar

7
interacciones para identificar casos de aplicación incorrecta del entrenamiento en
discriminación del estímulo,
6. Directrices para un entrenamiento adecuado en la discriminación en la
discriminación del estímulo
Las directrices son:
1. Escoger señales claras y especificar los estímulos discriminativos y delta.
2. Seleccionar refuerzo apropiado
3. Desarrollar la discriminación
a. Hacer preparativos para que la respuesta deseada se refuerce varias veces en
presencial del E^D.
i. Especificar claramente la secuencia ACC con instrucciones precisas.
ii. Hacer comentarios verbales continuamente al principio
iii. Colocar las reglas en un lugar visible y revisarlas
iv. Emplear gestos exagerados que enfaticen estas señales (que le presten
atención)
v. Presentarles indicadores justo antes de que deba darse la respuesta.
b. Al presentar el estímulo delta, hay que hacer que su sustitución por el E^Dsea
muy obvia y extinguir la conducta (lugares, horas, personas presentes, etc.)
4. Apartar gradualmente a los aprendices del programa
a. Si la conducta ocurre ante el E^D y no ante es estímulo delta, podemos eliminar
gradualmente los reforzadores artificiales y mantenerla mediante reforzadores
naturales
b. Evaluar periódicamente

8
TEMA 11: CASTIGO
Eliminar la agresividad de Ben
Ben tenía 7 años y estaba matriculado en un programa especial de una escuela pública para
alumnos con dificultades de aprendizaje. Le había diagnosticado un retraso en el desarrollo y
el personal había observado un aumento en la frecuencia con que golpeaba a otros alumnos o
incluso a los cuidadores. De hecho, durante las observaciones que se hicieron para tomar la
línea de base a lo largo de tres semanas se comprobó que Ben pegaba los demás una media
de 30 veces al día, con lo que quedó patente que había que hacer algo al respecto. Aunque se
ha demostrado que, usadas como castigo, las consecuencias desagradables reducen la
frecuencia de las conductas no deseadas, son muchas las situaciones, las aulas de las escuelas
públicas serían un ejemplo, en que este tipo de consecuencias sería inaceptable. Por tanto, en
el caso de Ben, los profesionales decidieron explorar la posibilidad de establecer una
contingencia entre hacer ejercicio y los comportamientos agresivos para reducir la
frecuencia de éstos.
Se tomaron precauciones para garantizar que el ejercicio contingente no perjudicara la salud
del niño, se explicó el procedimiento con detalle al padre y a la madre y se obtuvo un
consentimiento por la participación en el programa. El comité de ética de la junta
académica del distrito también revisó y aprobó la propuesta, que se aplicó diariamente en la
clase durante la jornada escolar. El día que se introdujo el ejercicio y Ben dio el primer golpe,
la profesora le dijo: “Ben, no se pega a la gente. Siéntate y levántate diez veces”. A
continuación, y con el fin de asegurarse de que lo hacía, la profesora le cogía de la mano y
tiraba de él hacia arriba, para que se levantara, y hacia abajo, para que se sentara, a la vez que
repetía, "Levantarse, sentarse” hasta completar los 10 ejercicios. A pesar de que Ben protestó
en algunas ocasiones, los cuidadores comentaron que sólo inicialmente hubo que obligarle a
que hiciera los ejercicios, ya que posteriormente, el comentario verbal era suficiente para que
los hiciera por sí mismo. De la media de unos 30 golpes diarios que se registró durante la línea
de base, la frecuencia se redujo a 11 ya el primer día de intervención, a 10 el segundo día, a 1
el tercer día y a uno o ninguno a partir de entonces.
Tras dos semanas, el personal decidió dejar de aplicar el programa de ejercicios contingentes
para ver qué sucedía con las conductas agresivas. La frecuencia de los golpes siguió
siendo muy baja durante cuatro días, pero luego comenzó a aumentar nuevamente
durante otros cuatro días. Se reintrodujo entonces el programa de ejercicios, y se observó un
declive inmediato de los golpes, hasta llegar a desaparecer. Si bien la intervención se mantuvo
formalmente durante otros dos meses, lo cierto es que los cuidadores sólo registraron tres
incidentes de agresión durante todo este tiempo, con lo cual Ben aprendió a jugar e interactuar
con sus compañeros sin volver manifestar las conductas agresivas previas.

1
1. El principio del castigo
El castigo es el suceso que, al ser presentado inmediatamente después de la emisión de
una conducta, reduce la probabilidad de la misma. También se denominan estímulos
aversivos. Afecta a nuestro aprendizaje a lo largo de la visa: tocar una estufa caliente, heridas
tras las caídas, ceño fruncido de nuestra pareja tras hacer algo inadecuado en público...
2. Tipos de castigo
De acuerdo con Van Houten en 1983 existe: el castigo positivo (castigos que producen dolor
y reprimendas) y castigo negativo (tiempo fuera y coste de respuestas)
2.1. Castigo positivo
2.1.1. Castigos que producen dolor
Son castigos físicos que incluyen estímulos punitivos que activan los
receptores de dolor u otros receptores que provocan sensación de malestar:
bofetadas, pellizcos...También se llaman castigos incondicionados, porque
resultan punitivos sin aprendizaje previo. A pesar de la aplicación del castigo
no es agradable, hay casos en los que resulta necesario su uso.
Por ejemplo, Sandra era una niña de corta edad que ingresó en el hospital
porque no lograba ganar peso, lo cual estaba asociado a que regurgitaba
alimento continuamente. Evidenciaba falta de peso y desnutrición hasta el
punto de que su vida corría peligro. Las observaciones preliminares indicaron
que, minutos después de beber la leche, la niña comenzaba a regurgitar y
seguía haciéndolo entre 20 y 40 minutos, hasta que aparentemente vomitaba
toda la leche que había bebido. El psicólogo y sus colegas decidieron
administrarle zumo de limón como castigo. Durante el tratamiento, en cuanto
los profesores detectaban los movimientos de lengua enérgicos que precedían
sistemáticamente a los vómitos, le llenaban la boca de zumo de limón. Tras la
administración de 16 dosis de zumo, la regurgitación disminuyó hasta un nivel
muy bajo. Para asegurarse de que la mejora se debía al programa, el equipo
de psicólogos suspendió el zumo de limón en dos tomas, con el resultado de
un aumento evidente de la regurgitación. Tras un periodo de intervención
adicional, Sandra recibió el alta y la custodia de una familia adoptiva, que
mantuvo el tratamiento hasta que ya no fue necesario para su correcta
alimentación.
2.1.2. Reprimendas
Son verbalizaciones negativas inmediatamente contingentes con la
conducta inadecuada, que suelen acompañarse de miradas fijas y a veces
un apretón de brazo (“No, eso no se hace”). Se trata de por lo tanto un
castigo incondicionado en el que el apretón de brazo es el castigo
incondicionado. En algunos casos la eficacia de las riñas aumenta si se
emparejan con otros castigos.
Dorsey, Iwata, Ong y McSween en 1980 acompañaban las reprimendas
de un pulverizador de agua para suprimir los comportamientos

2
autolesivos en personas con retraso cognitivo. Con ello logró que las
reprimendas no sólo fueran eficaces en el contexto original, sino también en
situaciones en que habían utilizado el pulverizador.
2.2.Castigo negativo
2.2.1. Tiempo fuera de refuerzo positivo
Trasladar a una persona desde una situación reforzante a otra que lo es
menos, inmediatamente después de que se ha llevado a cabo una conducta
específica. Supone la retirada del acceso al reforzador.
• Tiempo fuera exclusivo: retira a la persona durante un periodo de
tiempo breve (5 minutos) de la situación en la que se está produciendo
el refuerzo de una conducta inapropiada. Se dispone de una sala de
tiempo fuera en la que no hay objetos que funcionen como refuerzos y
están minimizadas las posibilidades de conductas inapropiadas. Por
ejemplo, la retirada de carnet de conducir.
• Tiempo fuera no exclusivo: es introducir en la situación un estímulo
que está asociado a un refuerzo menor. Por ejemplo, Fox y Shapiro en
1978 los alumnos llevaban un cinturón, del que se les privaba durante
un rato si se portaban bien. Mientras no llevaban el cinturón, no podían
participar en las actividades del aula y eran ignorados por el profesor.
2.2.2. Coste de respuesta
La retirada de una cantidad predeterminada después de que se haya
producido un comportamiento específico. Por lo tanto, el sujeto tiene que
poseer una cantidad de reforzador acumulado. Se emplea a breves como
complemento los sistemas de economía de fichas, Por ejemplo, una pérdida
de fichas (que se cambiaban por un minuto se recreó) para reducir
comportamientos ajenos a las taras, penalizaciones de bibliotecas, multas de
tráfico...
2.3.Acción directa e indirecta del castigo
2.3.1. Efectos de acción directa del castigo
El descenso de la frecuencia de la respuesta debido a las consecuencias
punitivas inmediatas que se producen aproximadamente durante los
primeros 30 segundos.
2.3.2. Efectos de acción indirecta del castigo
Debilitamiento de una respuesta que es seguida con retraso de un
estímulo punitivo (Exceso de velocidad captada por radar). Estos castigos
diferidos afectan al comportamiento debido a las instrucciones que han guiado
la conducta, las auto instrucciones o pensamientos que intervienen en el
momento que se lleva a cabo la conducta hasta que aparece el estímulo
punitivo, o debido a castigos condicionados inmediatos que actúan entre la
conducta y la llegada de castigo de apoyo,
3. Factores que influyen en el castigo

3
Los factores que se llevan a cabo son 5
3.1. Optimizar las condiciones para conseguir una respuesta alternativa
deseable
Al disminuir una respuesta no deseada, lograremos una máxima eficacia si
aumentamos simultáneamente la frecuencia de otras respuestas alternativas
deseables que compitan con la que queremos eliminar. Hay que identificas los E^D
que controlan adecuadamente la conducta deseada y presentarnos para aumentar la
probabilidad que se produzca. Además, hay que contar con reforzadores positivos
eficaces. Antes de utilizar un procedimiento de castigo conviene diseñar primero un
programa de control de estímulos y R+ de comportamientos alternativos aceptables. A
veces esto hace innecesario el uso del castigo.

3.2.Minimizar la causa de la respuesta que se quiere castigar


Cuando queremos aplicar un programa de castigo y optimizar la probabilidad de
una conducta alternativa deseable, tenemos que minimizar antes las causas de la
conducta inadecuada lo cual implica dos aspectos:
- Identificar los E^D que controlan la conducta no deseada.
- Identificar los reforzadores intermitentes que la están manteniendo.
Esto se lleva a cabo un “análisis funcional ABC” de los antecedentes y consecuencias
de la conducta. En muchas ocasiones esto hace innecesario el empleo del castigo, pues
es suficiente el empleo del reforzamiento diferencial de conductas alternativas y la
extinción.
3.3. La elección del castigo
La eficacia del castigo depende de su intensidad. Sin embargo, incluso un castigo
leve, como una reprimenda, es eficaz siempre que se deje de reforzar la aparición de
la conducta inaceptable y se refuerce un comportamiento alternativo aceptable
mediante un R+ importante.
Algunos estímulos parecen castigos, aunque de hecho no lo son. Por ejemplo: ante
el comentario “No, no hagas esto”, es probable que el niño interrumpa su conducta
porque ahora ha logrado la atención de los adultos, puede llevar a cabo otra conducta
que mantenga esa atención. La reprimenda puede funcionar como E^D de la conducta
posterior agradable del niño y no tener efecto ni como castigo, ni como R+ de su
conducta previa desagradable.

4
Para que las riñas y amenazas constituyan castigos, tienen que estar firmemente
respaldadas por otro castigo, minimizar las causas de la conducta indeseable y
maximizar las conductas alternativas.
Hay que castigar de manera que no se pueda emparejar con el R+; esto es difícil
cuando el castigo lo aplica una persona adulta y quien lo recibe está privada de atención.
En estas ocasiones, las reprimendas pueden funcionar a modo de R+ cuando es la única
atención que los niños reciben de los adultos durante un periodo de tiempo prolongado.
3.4. Añadir antecedentes, incluidas normas para el castigo
Ya vimos que un E^D punitivo es aquel cuya respuesta va a ser castigada; por lo
tanto, es menos probable que ésta vuelva a ocurrir cuando aparezca ese estímulo (Pedir
alguien algo cuando esta de mal humor suele ir seguido de reprimenda).
Al igual que para el R+., añadir normas ayuda a disminuir la frecuencia de
conducta adecuada e incrementar las alternativas. Las conductas pueden ser
indeseables, nunca las personas.
3.5. Administrar el castigo
Máxima eficacia cuando se administra inmediatamente después de la conducta no
deseada. Si se retrasa, podríamos castigar otra conducta diferente a la que queremos
suprimir. Por ejemplo, la madre le pide al padre que al llegar a casa castigue al niño
porque se ha portado mal anteriormente, esta petición es inadecuada porque:
- El niño recibe castigo, aunque ahora se esté portando bien
- Se castiga al padre por volver a casa después del trabajo.
Esto no significa que el castigo diferido sea siempre ineficaz, porque el comportamiento
está dirigido por normas, lo cual permite a los humanos a establecer conexiones entre
acciones y consecuencias, aunque haya transcurrido mucho tiempo.
El castigo ocasional no es tan eficaz como el castigo que se produce después de
todas las apariciones de la conducta inaceptable (si no podemos detectar la mayoría
de las ocasiones en que se presenta el comportamiento inadecuado, deberiamos
cuestionar la validez de usar un procedimiento punitivo) . No conectar la administración
del castigo con la de R+.
La persona que lo administra ha de mostrarse tranquila, pues manifestar ira podría
reforzar comportamientos no deseados y alterar la estabilidad o intensidad del C,
4. ¿Debe usarse el castigo?
La polémica en el empleo del castigo en los años 80, se queja de algunas organizaciones
relacionadas con programas de acción social sobre algunas aplicaciones del castigo. APÁ y
otras asociaciones, enmiendas con el Congreso Norteamericano para prohibir el uso de castigo
corporal en niños con trastornos emocionales. Ídem en los años 90 por la Asociación
Norteamericana de Retraso Mental “rechazo de los procedimientos aversivos que producen
daño físico, dolor o enfermedad...y ...los procedimientos deshumanizadores y de degradación
social y abuso verbal”.

5
Utilizar el C+ sólo cómo última estrategia a la hora de disminuir conductas, precedido de
R+ de conductas alternativas, extinción y C-. Es la última alternativa para suprimir
conductas. Sólo justificado para suprimir conductas extremadamente peligrosas en autistas o
personas o retraso cognitivo: conductas autolesivas como daños en la visión por intentar sacarse
los ojos, golpes en los oídos...una vez suprimidas esas conductas, utilizar el R+ de conductas
deseables. En estos casos el uso de C+ debería de estar restringido a profesionales
cualificados especialistas.
En otros casos la única alternativa es la restricción consistente, evitar el uso degradante y
humillante del castigo. La Restricción consistente es forrar las manos de las personas con
guantes acolchados o incluso atar a la persona a una silla de ruedas o cama (aunque eso impide
que aprenda conductas adaptativas)
Los posibles efectos dañinos originados por el castigo son:
- Comportamientos agresivos: El castigo tiende a provocar comportamientos
agresivos. Trabajos con animales muestran que la aplicación de estímulos dolorosos los
lleva a atacar a otros animales, aunque éstos no estén conectados con su administración.
Este resultado también es aplicable a humanos. De ahí que no se deba sorprendernos de
algunas personas ataquen a otras ser castigadas.
- Comportamientos emocionales, tales como llanto y miedo generalizado. Estas
consecuencias no solo sin desagradables, sino que a menudo interfieren con la conducta
deseable, sobre todo si es de naturaleza compleja.
- Comportamientos de escape y evitación. Los estímulos asociados al castigo, se
convierten en castigos condicionados, de los que el sujeto intenta escapar o evitar. El
castigo puede producir que la situación y personas relacionadas con los estímulos
aversivos se conviertan en castigos condicionados. Por ejemplo, enseñar a leer a un
niño le castigamos cuando se equivocan cualquier aspecto de la situación (textos
impresos, libros, maestro castigador o aula) se convierte también en un estímulo
aversivo, que los estudiantes intentarán evitar o escapar. Otro ejemplo es una profesora
que utilizaba una silla para aplicar el tiempo fuera para alumnos de primer grado, ella
decía a los revoltosos que se sentaran en la silla negra y ésta se convirtió en alfo que
aterrorizaba a los pequeños. Años después los alumnos que la visitaban seguían
mostrando pánico ante esa silla, aunque nunca había pasado nada malo en ella. A partir
de ese momento la llamó silla tranquilizadora, y ella misma mostraba sus propiedades
benignas sentándose en ella para calmarse.
- No hay comportamientos nuevos. Sólo se suprime una conducta, se enseña qué no
hacer. Hay que insistir en la adquisición de nuevas destrezas.
- Imitar el castigo. Al castigar a los niños estamos sin querer sirviendo de modelo sobre
cómo presentar estímulos aversivos a los demás. Los niños suelen imitar las conductas
de los adultos, y por tanto es muy probable que ellos hagan lo mismo otros, Por ejemplo,
los estudiantes que aprendieron un juego en que se les multaba por emitir respuestas
incorrectas, multaban a los compañeros a quienes tenían que enseñar a jugar (Gelfand
y cols.,1974)
- El uso continuado del castigo dado que produce la supresión rápida del
comportamiento inaceptable, podría resultar tentador seguir utilizándolo, en lugar
de reforzar positivamente conductas alternativas satisfactorias. Dado que las conductas

6
eliminadas podrían volver a aparecer, se podría caer en el círculo vicioso de emplear
castigos más intensos de efectos desastrosos.
5. Errores en la aplicación del castigo
Hay muchas ocasiones en las que las personas están empleando el castigo sin darse cuenta que
lo están haciendo: por ejemplo, la crítica o ridiculización de alguien que emite un
comportamiento inadecuado, que hace que se elimine la conducta del futuro, pero también
que se aleje la persona que le castiga. Sin embargo, la conducta ridiculizada podría haberse
considerado como un paso en un procedimiento de moldeamiento por aproximaciones
sucesivas.
Los comportamientos del tipo “esto que acabas de hacer está muy bien, no obstante...”, en lugar
decir algo “Gracias por tu ayuda, pero la próxima vez no seas tan lento”

7
TEMA 12- REFUERZO NEGATIVO, ESCAPE Y EVITACION

“corregir la mala postra de jason”

Jason era un empleado modélico. Un asistente del Anna State Hospital, muy trabajador,
puntual y apreciado por los pacientes. Desafortunadamente Jason solía encorvarse. A
primera vista, encorvarse no tendría por qué ser un problema serio. Pero que el personal
del hospital camine encorvado no es un buen modelo para los pacientes psiquiátricos.
Una mala postura suele repercutir en la aceptabilidad social cuando vuelven para
integrarse en la comunidad. Además, muchas autoridades médicas creen que una buena
postura mejora la salud. Por suerte para Jason, algunos psicólogos del hospital estaban
llevando a cabo una investigación sobre ingeniería conductual, es decir, el uso de
aparatos para manejar contingencias con el fin de modificar la conducta. Jason aceptó
llevar una espaldera especialmente diseñada con un cordón elástico conectado a un
pequeño generador de tonos y un interruptor. Cuando Jason llevaba camisa y chaqueta,
el arnés no se transparentaba y nadie lo notaba.

Así es como funciona el aparato: cuando Jason se encorvaba, el cordón elástico tiraba y
sonaba un clic. Tres segundos después sonaba un tono agudo y se mantenía hasta que
Jason se erguía. Por tanto, recuperando una buena postura después del tono, Jason
escapaba del sonido. Y si continuaba manteniendo la postura adecuada, lo evitaba. Los
resultados fueron llamativos: antes de llevar el aparato, Jason estaba encorvado casi el
60% del tiempo, pero mientras llevaba el arnés sólo estaba encorvado un 1% del tiempo.
Cuando se quitó el aparato, volvió a recuperar en parte su mala postura (un 11%
aproximadamente), pero la demostración clara de los efectos del aparato le dieron
esperanzas para corregir su mal hábito postural. (Azrin, O´Brien, Ayllon y Roll, 1968)

1. Condicionamiento de Escape

Condicionamiento de escape: la desaparición inmediata de estímulos aversivos que


están presentes en ese momento después de la emisión de una respuesta, incrementan la
probabilidad de esa respuesta. El estímulo aversivo debe presentarse antes de la
respuesta de escape

Es un tipo de refuerzo negativo (Skinner, 1953), ya que se fortalece la respuesta. El


término negativo indica que este efecto se produce porque la respuesta lleva a la
eliminación de un estímulo aversivo

Es muy frecuente en la vida cotidiana; ante luz brillante cerramos los ojos; ante el frio
escapamos poniéndonos ropa; ante el calor escapamos encendiendo el ventilador, su hay
ruido en la calle escapamos cerrando la ventana

Condicionamiento de escape: la desaparición inmediata de estímulos aversivos


después de la emisión de una respuesta, incrementan la probabilidad de esa respuesta.
En el caso de Jason, la desaparición del tono tras la respuesta de erguirse aumentó la

1
probabilidad de que exhibiera una buena postura cada vez que se presentaba el tono. El
estímulo aversivo (tono) tenía que estar presente para que ocurra la respuesta deseada.

2. Condicionamiento de evitación

El condicionamiento de escape es solo un entrenamiento preparatorio para l


condicionamiento de evitación. La frecuencia de una conducta aumentara si previene o
evita la ocurrencia de un estilo aversivo. En el caso de Jason, mantenerse erguido
cuando sonaba el clic evitaba que sonara el pitido. También es un tipo de refuerzo
negativo

Condicionamiento de evitación discriminada o tipo Sidman; hay una señal de


advertencia (click) o estimulo condicionado aversivo, que señala la aparición del
estímulo incondicionado aversivo posterior (pitido molesto). El clic se convirtió en un
estímulo condicionado aversivo mediante su emparejamiento con el estímulo
incondicionado aversivo (pitido). Si se encorvaba, aparecía el estímulo condicionado
aversivo. Si el sujeto emite la respuesta de erguirse en presencia del estímulo
condicionado de aviso (click), evita la aparición del estímulo incondicionado aversivo
(pitido). Jason evitaba el estímulo incondicionado aversivo (pitido) cuando se erguía
ante el sonido del click

2
Ejemplos; los niños aprenden a responder bien para evitar el ridículo o las malas notas;
se pagan impuestos para evitar la cárcel, se mete dinero en el parquímetro para evitar las
multas; se pagan las multas para evitar la citación del juzgado; no se asiste a una fiesta
para evitar la ansiedad social, no se sube en ascensor para evitar el miedo a quedarse
dentro; no se ingieren alimentos calóricos por miedo a engordar.

EN GENERAL, LA MAYORIA DE LOS PROBLEMAS DE ANSIEDAD ESTAN


MANTENIDOS POR CONDICIONAMENTO DE EVITACION (REFUERZO
NEGATIVO)

¿Cómo es posible que no ocurra algo pueda generar la conducta? Hay varias
explicaciones alternativas:

- En el condicionamiento de evitación la respuesta se fortalezca porque acaba


inmediatamente con el estímulo de advertencia (estimulo condicionado
aversivo). Ejemplo 1: Al ir caminando por el pasillo de un centro comercial ves
a alguien que no te cae bien. Entras en la tienda más cercana. Ya no ves a la
persona que te cae mal. Evitas un encuentro desagradable
- Las respuestas de evitación ocurren porque nos permiten escapar de la
ansiedad (respuesta condicionada) que provoca el estímulo aversivo
condicionado. Un niño ve al perro de sus vecinos que antes ya le había asustado.
El niño siente ansiedad. Entra en la casa. Está menos asustado. Evita oír los
fuertes ladridos del perro.
- Hay ocasiones en las que el estímulo aversivo condicionado es cognitivo, y a
través de la puesta en marcha de una respuesta, ese pensamiento cesa. Una
persona recibe una invitación para acudir a una fiesta. Esto le genera mucha
ansiedad porque teme que no va a saber qué hacer en esa fiesta; para evitar
sentirse mal en la fiesta, llama a la persona que le ha invitado y pone una excusa
para no ir. De este modo evita ese malestar

3. Posibles Obstáculos en el Condicionamiento de Evitación

3
A)hay muchas personas que sin pretenderlo aplican el condicionamiento de escape y
evitación, lo cual fortalece el mantenimiento de conductas desagradables

- Es frecuente que los problemas de personas con trastornos evolutivos les


permitan escapar de situaciones de aprendizaje, de trabajo y de tareas domesticas
- Snyder y Cols (1997): los padres de niños con conductas agresivas suelen
fortalecerlas al desistir o rendirse cuando esas conductas tienen lugar. Los niños
prometen “ser buenos y no volver a hacerlo” para escapar o evitar el castigo por
alguna infracción de las normas domésticas. Si estas suplicas tienen éxito, se
fortalecen y se emitirán en circunstancias similares, mientras que la conducta
que se quería castigar se mantendrá fuerte
- Los reclusos aprenden a responder con frases “correctas” para conseguir la
libertad condicional; a veces resulta difícil discriminar si lo que se ha
modificado es solo su conducta verbal o su conducta antisocial. Disculpas,
confesiones y “aspecto de culpable” de los agresores en todos los ámbitos de la
vida. Mentir o tergiversar los hechos es una forma de evitar el castigo, si lo que
se pretende es salir impune.

Muchos de nuestros comportamientos se mantienen porque nos permiten escapar de


estímulos aversivos, como cerrar los ojos ante una luz brillante o taparnos los oídos ante
un ruido fuerte. Escapar de EE. Aversivos puede provocar conductas problemáticas.
P.e. a algunas personas les resulta aversivo que los demás le soliciten algo. La conducta
problemática podría ser un modo de escapar a las peticiones hechas por los demás.
Algunos niños, cuando se les pide que contesten a preguntas difíciles, podrían iniciar
comportamientos de berrinche, que se reforzarían si, quien pregunta, deja de hacerlo.

El caso de un niño que gritaba como Tarzán.

Eduardo era un niño de 8 años, muy tranquilo, deficiente a nivel evolutivo que asistía a
clases de educación especial. Cada vez que tenía que contestar a una pregunta a la que
no sabía responder gritaba como Tarzán. Prefería hacerlo antes de dar una respuesta
equivocada. Esto interrumpía la clase. Además con ello conseguía evitar las preguntas
que le parecían difíciles.

Intervención Psicológica: En primer lugar la profesora eliminó las preguntas difíciles.


Cada día se quedaba a solas un rato con él revisando los deberes que tenía para el día
siguiente y preguntándole sobre la materia. Aunque a veces cometía errores, no gritaba
como Tarzán. Puesto que sólo estaban él y la profesora, aparentemente la conducta
estaba bajo el control del estímulo de sus compañeros de clase.

Durante las 2 semanas siguientes la profesora le preguntó en clase preguntas que


conocía, mostrándole mucha aprobación por ello. Durante las siguientes dos semanas
comenzó a hacerle preguntas un poco más difíciles, cada una de las cuales iba precedida
de un fuerte instigador como “Esta es, Eduardo, una pregunta un poco difícil. Pero estoy
segura de que puedes contestarla, y si no puedes, buscaremos entre todos la respuesta,
¿os parece bien?”. De este modo, si respondía de forma incorrecta, inmediatamente se

4
dedicaba con la profesora y el resto de la clase a encontrar la respuesta adecuada. Esta
táctica dio la oportunidad a Eduardo de recibir atención de la clase por un
comportamiento deseable, y no por los gritos inapropiados de Tarzán. El proyecto
completo duró un mes. Posteriormente el niño ya no requirió atención especial. Para
mantener el buen comportamiento, la profesora se aseguró de hacerle periódicamente
preguntas cuyas respuestas conocía.

B) un segundo riesgo es el condicionamiento fortuito de estímulo como si fueran


aversivos, a los que una persona responderá por tanto posteriormente huyendo o
evitándolos

- si un entrenador grita, critica o ridiculiza a los atletas, estos mejoraran para


evitar o escapar de la ira del entrenador, pues se ha convertido en un estímulo
aversivo condicionado. Incluso pueden abandonar.
- Profesores que utilizan demasiado el castigo, y transforman la clase, materiales
de aprendizaje y a sí mismos en estímulos aversivos condicionados. Los
alumnos pueden alejarse así de los docentes, el colegio y los libros, y no
progresar académicamente.

C) un tercer riesgo es que el condicionamiento de escape a menudo mantiene


conductas inadecuadas de padres, profesores o cuidadores:

- Un niño está en el supermercado con su madre y empieza a gritar “chuches,


chuches”. Para que deje de dar la lata su madre le compra chuches. El niño deja
de gritar. En un futuro más probable que el adulto ceda ante los gritos del niño
debido al condicionamiento de escape ( y es más probable que el niño vuelva a
gritar pidiendo algo, debido al refuerzo positivo que recibe por hacerlo)

4. Conducta de Evitación

4.1 PROCEDIMIENTO DE EVITACION DISCRIMINADA

En la caja de Skinner, las ratas pulsan la palanca durante el estímulo condicionado para
evitar recibir descarga

En la caja de lanzadera los animales tienen que emitir la respuesta de pasar al lado
contrario para evitar el choque; evitación de sentid único (más fácil de aprender) o
bidireccional

4.2 TEORIA DE LOS DOS PROCESOS

Teoría de los dos procesos Mowrer (1947) y Miller (1951)

¿Cómo la ausencia de algo aversivo puede reforzar la conducta instrumental?

- “nada” sigue a la respuesta de evitación que tiene éxito. ¿Cómo “nada puede
reforzar la conducta?

5
- ¿Qué consiguen los sujetos en los procedimientos de condicionamiento de
evitación que proporciona reforzamiento a la conducta de evitación?

Teoría fundamental que sirve como marco de referencia en el estudio de este fenómeno.

El primer factor:

El aprendizaje de evitación implica tanto procesos instrumentales como de


condicionamiento clásico:

- Proceso de condicionamiento clásico: en los ensayos en los que el sujeto no


realiza la conducta de evitación, el EC se asocia con el EI aversivo,
condicionándose un estado emocional hipotético (miedo).
- El primer componente de la teoría de los dos procesos es el
condicionamiento clásico del miedo al EC

El segundo factor:

La reducción del miedo a través de la respuesta de evitación supone la eliminación


del EC de aviso, que produce la reducción del miedo condicionado; esto proporciona el
reforzamiento instrumental para la respuesta de evitación (reforzamiento negativo)

En lugar de centrarse en que la respuesta de evitación previene la aparición del EI


aversivo, se trata la conducta de evitación como un caso especial de conducta de escape
de un suceso tangible:

- EC(estimulo)> R( evitación: finalización del EC)>R-(reducción miedo)

Independencia de los dos procesos:

1. El condicionamiento clásico es el prerrequisito para el condicionamiento


instrumental. Sin él no se puede producir el refuerzo negativo
2. El proceso pavloviano está influido por la contingencia instrumental. La
respuesta de evitación debería producir la extinción pavloviana del miedo
(presentación del EC aislado). Sin embargo, esa respuesta es tan rápida, que el
sujeto se expone muy poco tiempo al EC, imposibilitando que la RC se extinga.

4.3 ANALISIS EXPERIMENTAL DE LA CONDUCTA DE EVITACION

Extinción de la conducta de evitación mediante el bloqueo de la respuesta y


exposición del EC aislado

Dada la gran persistencia de la conducta de evitación en ausencia de EI ¿cómo podría


extinguirse?

- Exposición con prevención de respuesta (Baum, 1970): presentación del Ec


sin el EI, impidiendo al sujeto realizar la respuesta de evitación (el sujeto es
“inundado con el EC)

6
- Gran importancia de la duración a la exposición forzada al EC. La extinción
es más rápida con tiempo mayores de exposición bloqueada al EC
- En la inundación se produce tanto la extinción del miedo como de la
respuesta motora de evitación. En ocasiones se extingue antes la evitación que
el miedo, o a la inversa.

7
Tema 13: Aprendizaje Observacional o Vicario
El aprendizaje vicario u observacional ha sido denominado también aprendizaje social; es el
proceso por el que se transmiten los logros sociales a través de generaciones y supone una
forma de transmisión cultural en la que el sujeto aprende a partir de las experiencias de un
modelo puede ser real o simbólico. (trasmite los contenidos culturales y las tradiciones, como
de padres a hijos)
1. Aprendizaje Vicario en animales
1.1. Miedo a depredadores
Estudio de Mineka, Davidson, Cook y Keir (1984). Presentaron a monos ingenuos
criados en cautividad imágenes de vídeo en las que aparecía una serpiente que producía
miedo en mono de su especie. A partir de esa experiencia, los monos comenzaron a
tener a las serpientes, a pesar de no haber tenido ninguna experiencia con ellas.
1.2. Búsqueda de comida
Lo que comemos a veces está determinado por lo que vemos comer. La investigación
de Galef en 1988 realizo un experimento dónde si a una rata se le da de comer cacao o
canela, y después se coloca a otra rata en su compañía, ya sin comida disponible, cuando
después le damos a escoger a la nueva rata entre cacao y canela, se decantará por el
saber que ingirió la primera.
Otra investigación es el Efecto del compañero envenenado de Coombes, Revisky y
Lett en 1980 cuando una rata recibe un alimento inocuo con sabor, y luego se la expone
a otra rata previamente envenenada con signos de malestar, la primera rata acaba
rechazando el sabor que le habíamos presentado, a pesar de no haber sufrido malestar
gástrico.
1.3. Aprendizaje del canto en aves
Una investigación es la de Thorpe en 1963 decía que lo pinzones sólo pueden
desarrollar el canto cuando han escuchado el acto de otro pinzón adulto mientras eran
polluelos.
Otra fue la de Marler en 1970 que determino que el gorrión tiene un canto diferente
según el grupo del que proceda y el desarrollo de ese canto depende de que el polluelo
haya estado expuesto al canto un adulto durante un periodo sensible de 10 a 50 días de
edad.
2. Mimetismo e imitación
El mimetismo implica la copia de una respuesta por observación, en ausencia de
recompensa tangible.
La imitación implica la copia de una respuesta en la que el que la realiza obtiene beneficios
inmediatos y tangibles, muy útil para resolver problemas. Los animales no humanos rara vez
imitan.
Estos dos mecanismos parecen estar circunscritos a un número limitado de especies y
situaciones, y probablemente pueden considerarse patrimonio casi exclusivo del ser humano.
3. Aprendizaje vicario humano
Albert Bandura (1925-2021) realiza la reproducción mental activamente elaborada por el
observador de un estímulo, que ejecuta alguna acción o sufre las consecuencias de alguna
acción sin que el observador necesite ejecutar tal conducta. (se elabora activamente a nivel
cognitivo y se ejecuta)
Los elementos son:
- Aprendizaje esencialmente cognitivo
- Difiere de la mera imitación: elaboración activa y creativa del sujeto que copia
selectivamente y elabora leyes de comportamiento.
- El modelo puede ser tanto animado como inanimado, vivenciado o simbólico, real
o imágenes.etc.
- Se diferencia entre aprendizaje y ejecución de la conducta.
4. El experimento paradigmático
Bandura y Ross en 1963, escogieron 65 niños de guardería con una edad media de 51 meses.
Los 3 grupos que observaron un modelo de televisión:
A) Observar a un niño que es premiado por realizar conductas agresivas no usuales.
B) Observar a un niño que realiza las mismas conductas, pero es castigado y reprendido
por ello.
C) Observar el mismo modelo que no recibe ni aprobación ni castigo por actuar así
En una segunda fase se introduce a los niños en la habitación con los mismos juguetes,
midiendo la cantidad de conducta agresiva ejecutada. A continuación, aparece un nuevo
experimentador con dulces y chucherías que promete repartir entre quienes sean capaces de
reproducir verbal y físicamente la conducta observada en la televisión.
Las Puntuaciones medias de respuestas realizadas por los niños en función del refuerzo positivo
o de diferentes contingencias de refuerzo del modelo (Bandura y Ross 1963)

A) En la primera reproducción libre reproducen la conducta agresiva observada más


los niños que presenciaron el modelo premiado o no castigado. En cualquiera de los
casos reproducen más los niños que las niñas.
B) Cuando se les promete recompensa por reproducir la conducta del modelo, los niños
de los 3 grupos aumentan significativamente la reproducción de la conducta agresiva
En este experimento se verifica las características de la definición de aprendizaje vicario:
1. En una reproducción cognitiva distinta de la ejecución (reproducción de la conducta
modelada en la segunda parte del experimento por parte de los sujetos que no lo hicieron
en la primera
2. No es necesario el premio o el castigo paras que se de el aprendizaje vicario (el
grupo de control también aprende la conducta modelada)
3. Se confirma la preocupación activa. La persona atiende a los estímulos más relevantes
no a toda gama de señales
4. No es necesario demostrar lo que se copia es una secuencia conductual al modelo por
que la conducta reproducida no existía en el repertorio de los sujetos
5. Se requiere de la contigüidad entre observador y modelo.
Video experimento de Bandura
5. Exposición sistemática del aprendizaje vicario
Bandura observa que hay
- El aprendizaje está regido por la contigüidad (aprendemos de cualquier modelo
que ejecuta una conducta en nuestra presencia). Importancia del componente
cognitivo del aprendizaje vicario. El aprendizaje cognitivo se realiza a través de
imágenes y representaciones simbólicas.
- La ejecución está regida por el refuerzo (ejecutamos únicamente cuando las
circunstancias son propicias).
Sistematiza dos procesos fundamentales procesos:
- Aprendizaje (cognitivo) (atención y retención(memoria)).
- Ejecución (conducta) (aprendizaje (reproducción o feedback) y motivación (refuerzo
positivo)
5.1. Procesos de atención
Es el elemento necesario para que se produzca el aprendizaje (atención
discriminativa)
5.1.1. Variables del estímulo o modelo
Facilitan que el sujeto preste atención: intensidad, viveza, frecuencia
temporal, sexo, edad, etc. Utilidad de descomponer estímulos complejos
para suscitar la atención del sujeto.
5.1.2. Variables Motivacionales y emocionales
El modelado ejercido por una persona querida es mejor modelo que el de una
persona neutra o desagradable
• Una persona puede atraer nuestra atención por pertenecer a nuestra
misma categoría.
• También se aprende de modelos negativos, siempre que no resulten
estresantes (tendemos a evitarlos).
• Implicamos para la exposición gradual a modelos estresantes.
5.1.3. Variables incentivadoras
Un modelo castigado o reforzado atrae más la atención que uno indiferente.
Cuando se refuerza a un modelo supuesto, se atiende más si es competente,
experto de alto estatus.
5.1.4. Variables de observador
Influencia de variables:
- Intrínsecas: dependencia, autoestima, nivel de competencia
- Sociales: sexo, estatus
- Experiencia para realizar la misma conducta que el modelo
(capacitación).
5.1.5. Variables Sociales
Se atiende más a los modelos con los que se convive. Importancia de
aspectos de la denominada por Bandura “colonización cultura” a través de
medios de comunicación de masas como la televisión o las redes sociales.
Bandura señalaba: “dado el tiempo que los niños y jóvenes pasan hoy en día
ante el televisor sin ninguna supervisión, es muy probable que estén
aprendiendo comportamientos agresivos, sexistas, etc. Que pueden originar
pautas de actuación desadaptativas difíciles de manejar”
5.2. Procesos de retención
El sujeto ejecuta la conducta observada en el modelo no inmediatamente, sino de
forma demorada. Hay que considerar la importancia de la capacidad del sujeto de
generar imágenes, esquemas, abstracciones, así como de participar en el proceso de
forma activa y creativa.
La teoría de Bandura tara los siguientes temas:
- El aprendizaje a través de modelos es simbólico.
- Importancia de la repetición y ejecución mental de la conducta del modelo
como método de entrenamiento para la ejecución.
- La retención mejora en las conductas que tienen relación con conocimientos
anteriores.
La intervención tiene dos sistemas de representación:
- Sistema imaginal, que actúa durante la exposición a los estímulos modelo:
asociación de imágenes sensoriales en base a contigüidad física. Actúan como
mapas cognitivos que guían al observador en el curso de la imitación
- Sistema verbal: sistema simbólico de traducción de secuencias de acción a
sistemas verbales abreviados. Produce el aprendizaje más eficaz.
El experimento de Bandura, Jeffery y Bachicha en 1974:
Enseñan a sujetos mediante prácticas de codificación para aprender unos contenidos, y
a otros sin ellas. Estas prácticas podían ser de tres tipos:
- Codificación en una frase resumen.
- Codificación en secuencias de letras.
- Transformación de letras en frases mnemotécnicas
El modelo ejecuta la conducta que ha de codificar el observador y durante 1.5 minutos
ha de hacer una representación mental.
Al 50% de los sujetos de cada grupo se les permite una repetición acumulativa, mientras
que al otro 50% se le somete a situaciones distractoras.
Después, todos los sujetos se dedican durante 3 minutos a realizar una conducta
distractora que impide la repetición mental.
A continuación, se les pide repetir lo más exactamente posible todas las escenas del
modelo que recuerden, y una semana más tarde vuelven a realizar la misma medida.
Resultados:
- Se confirma la importancia de la retención simbólica de la conducta del
modelo.
- La reproducción de ésta es más exacta cuando se ha decodificado en frases
familiares.
- Se confirma que la reproducción mental es el mejor medio para reproducir
la conducta observada después de una semana. La retención es mejor
cuando los nuevos conocimientos se organizan sobre conocimientos anteriores
(transformación de movimientos del modelo en frases mnemotécnicas)
5.3. Procesos de reproducción de la conducta observada
Se trata de explicar cómo lo aprendido (imágenes, símbolos y reglas abstractas) se
transforman en conductas visibles. La ejecución sirve de poco si no está guada por un
esquema menta (Bandura)
(A) Pruebas de la existencia de proceso de ejecución mental (experimento
anterior)
(B) Explicación de ausencia de reproducción de una conducta a la que atendió
y se recuerda: carece de elementos cognitivos para ejecutarla o de las
habilidades correspondientes.
(C) Importancia del Feedback Ejecutivo como medio para mejorar los ajustes
necesarios para lograr la conducta sea congruente

También podría gustarte