Está en la página 1de 4

3. APRENDIZAJE Y CONDICIONAMIENTO.

3.1 Condicionamiento clásico

Proceso de aprendizaje mediante el cual un organismo establece una asociación entre un estímulo condicionado (EC) y un
estímulo incondicionado (EI), siendo el EC capaz de elicitar una respuesta condicionada (RC). Experimentalmente se
obtiene esta forma de condicionamiento exponiendo el organismo a un EC y un EI en repetidas ocasiones. También se
denomina condicionamiento pavloviano.

3.2 Condicionamiento operante


Proceso a través del cual un organismo aprende a asociar ciertos actos con determinadas consecuencias. El organismo
aprende a efectuar ciertas respuestas instrumentales para obtener un refuerzo o escapar de un castigo. También se
denomina condicionamiento instrumental

Belloch A y otros, Manual de Psicopatología, Volumen I, Madrid, McGraw-Hill, 1995, pág. 85-87

“Llamado también condicionamiento instrumental. Fortalecimiento, mediante el refuerzo, de una respuesta que ya está
contenida dentro del repertorio de conductas del organismo. En el condicionamiento operante, la frecuencia con que
acontece una conducta cambia de acuerdo con el suceso consecuente”

Vander Zanden James, Manual de Psicología Social, Barcelona, Paidós, 1986, pág. 617

3. 3 Contingencias conductuales
Contingencia Esta es la relación sistemática entre dos eventos, como puede ser entre una respuesta y un reforzador, lo
característico de la contingencia es que debe ocurrir un evento A y luego ocurre el evento B, de manera que se puede decir
que un evento depende de la presencia de otro, es decir que sin la presencia de A no se gestaría B.

Contingencia (Análisis conductual) © https://glosarios.servidor-alicante.com

3.3.1 Reforzamiento positivo.

Un reforzador positivo es un acontecimiento que presentado inmediatamente después de una conducta, provoca que la
frecuencia o la posibilidad de que ocurra la conducta aumenten. El término reforzador positivo es a grandes rasgos,
sinónimo de premio o recompensa. Una vez que se ha establecido que un evento funciona como reforzador positivo para
una persona concreta en una situación determinada, puede usarse para fortalecer otros comportamientos de esa misma
persona en otras situaciones. En conjunción con el concepto de reforzador positivo, el principio de refuerzo positivo
estipula que si, en una situación determinada, alguien hace algo que es seguido inmediatamente de un reforzador positivo,
es más probable que repita la misma acción la próxima vez que se enfrente a la misma situación.

3.3.2 Escape.

El principio del condicionamiento de escape establece que existen determinados estímulos cuya desaparición
inmediatamente después de la ocurrencia de una respuesta incrementará la probabilidad de esa respuesta.

El condicionamiento de escape se parece al castigo porque ambos implican un estímulo aversivo o castigo, pero difieren
en el procedimiento en términos, tanto de los antecedentes, como de las consecuencias de la conducta. En relación con los
antecedentes, en el condicionamiento de escape, el estímulo aversivo debe presentarse antes de la respuesta de escape,
mientras que el estímulo aversivo no está presente antes de la respuesta que se castiga. En relación a las consecuencias, en
el condicionamiento de escape el estímulo aversivo se elimina inmediatamente después de la respuesta, mientras que en el
castigo, el estímulo aversivo se presenta inmediatamente después de la respuesta. En términos de resultados, con el
procedimiento del castigo la probabilidad de la respuesta objetivo decrece, mientras que en el procedimiento de
condicionamiento de escape, la probabilidad de la respuesta objetivo se incrementa.

Otro término para denominar al condicionamiento de escape sería reforzamiento negativo (Skinner, 1953). El término
reforzamiento indica que es análogo al reforzamiento positivo, ya que en que en ambos casos se fortalecen respuestas. El
término negativo indica que el efecto de fortalecimiento ocurre porque la respuesta lleva a la eliminación de un estímulo
aversivo.
El condicionamiento de escape es habitual en la vida cotidiana. En presencia de un destello brillante, hemos aprendido a
escapar de la intensidad de esa luz cerrando los ojos o frunciendo el ceño. Cuando una habitación es muy fría, escapamos
poniéndonos un abrigo. Cuando hace mucho calor escapamos del mismo encendiendo el ventilador o el aire
acondicionado. Si hay obras en la calle debajo de casa cerraríamos las ventanas para escapar del ruido.

3.3.3 Evitación

El principio de condicionamiento de evitación establece que la frecuencia de una conducta aumentará si previene la
ocurrencia de un estímulo aversivo.
Nótese que tanto el condicionamiento de escape como el de evitación implican la presentación de un estímulo aversivo y
en ambos aumenta la probabilidad de la conducta.
No obstante, una respuesta de escape elimina un estímulo aversivo que ya se ha presentado, mientras que la respuesta de
evitación impide que ocurra el estímulo aversivo.

Este tipo de condicionamiento de evitación, que incluye una señal de advertencia, que permite a la persona prepararse para
el estímulo aversivo inmediato, se conoce como condicionamiento de evitación discriminada.

El condicionamiento de evitación también es habitual en la vida cotidiana: en muchas aulas, los niños aprenden a
responder adecuadamente fundamentalmente para evitar el ridículo o las malas notas; el sistema legal se basa sobre todo
en el condicionamiento de evitación; se pagan los impuestos para evitar ir a la cárcel; se mete dinero en los parquímetros
para evitar las multas; se pagan las multas para evitar una citación del juzgado.

3.3.4 Castigo

Un castigo es un suceso que presentado inmediatamente después de una conducta hace que se reduzca la frecuencia de la
misma. Los castigos también se denominan estímulos aversivos. Una vez que se determina que un suceso actúa como
castigo para una conducta concreta de una persona en una situación específica, podemos usar este mismo suceso para
reducir la frecuencia de otras conductas de la misma persona en otras situaciones. Asociado a este concepto está el
principio del castigo: si en una situación determinada, una persona hace algo que es inmediatamente seguido de un
estímulo punitivo, es menos probable que la persona repita la misma acción cuando se encuentre en una situación
parecida.

Hay que destacar que el significado del término «castigo» en el ámbito de la modificación de conducta es muy específico
y distinto al que pueda tener para la mayoría de las personas ajenas a la Psicología en el contexto de nuestra cultura.
Pensemos, por ejemplo, en alguien que ingresa en prisión como castigo por haber cometido algún delito. En primer lugar,
es poco probable que el ingreso en prisión sea una consecuencia inmediata de la comisión del delito. En segundo lugar,
hay quienes defienden que un «castigo» ha de conllevar reciprocidad, es decir, ha de ajustarse a la gravedad de delito, de
manera que los delitos más graves merezcan penas más severas. En tercer lugar, un efecto que la cultura espera del
«castigo» es que sirva como disuasor para los posibles delincuentes. Sin embargo, para los modificadores de conducta,
«castigo» no es más que un término técnico que se refiere a la aplicación de una consecuencia inmediatamente después de
que una persona emita una conducta, lo cual tiene como efecto la reducción de la probabilidad de la aparición futura de
esa conducta en esa persona.

3.3.5 Extinción

El principio de extinción establece que: (a) si, en una situación concreta, una persona emite una respuesta previamente
reforzada y ahora no va seguida por una consecuencia reforzante, (b) esa persona es menos proclive a repetir la misma
conducta cuando se vuelva a encontrar en una situación similar. Dicho de otra forma, si una respuesta se ha incrementado
en frecuencia mediante reforzamiento positivo, el cese completo del reforzamiento causará una disminución en la
frecuencia de la misma.

3.4 Programas de reforzamiento


Un programa de refuerzo es una regla que especifica qué incidencia de un comportamiento concreto será reforzada, si es
que se puede reforzar alguna.
El programa de refuerzo continuo es uno de los más sencillos, en este tipo de sistema la conducta del sujeto recompensada
por cada problema resuelto. Muchos comportamientos cotidianos se rigen por un programa de refuerzo continuo: cada vez
que abrimos el grifo, sale agua que refuerza este comportamiento; cada vez que giramos la llave en la cerradura de la
puerta de casa, ésta se abre y así refuerza nuestra conducta.
Cualquier regla que especifique un procedimiento para reforzar un comportamiento sólo en algunas ocasiones se
denomina programa de refuerzo intermitente.
Los programas de reforzamiento intermiten te son preferibles a los continuos para mantener la conducta por varias
razones: (a) el refuerzo mantiene su eficacia durante más tiempo porque la saciedad se produce más lentamente; (b) los
comportamientos reforzados de manera intermitente suelen tardar más en extinguirse; (c) las personas suelen trabajar de
manera más estable en algunos programas intermitentes; y (d) es más probable que el comportamiento reforzado de
manera intermitente persista después de transferirlo a los refuerzos del ambiente natural.

3.4.1 Programas de razón

Programa de razón fija (RF), ya que el refuerzo se producía cada vez que emitía un número determinado de respuestas.
Cuando los programas de razón fija se introducen gradualmente, se produce una tasa de respuesta estable hasta la
consecución del reforzamiento, que es seguido de una pausa post-refuerzo, cuya magnitud depende del valor del
programa: a mayor valor de la razón, mayor duración de la pausa. Los programas de razón fija también producen elevada
resistencia a la extinción.

Hay muchos ejemplos cotidianos de programas de razón fija, por ejemplo, cuando el entrenador de fútbol dice al equipo,
«Ahora mismo todos a hacer veinte abdominales antes del descanso», estamos frente a un RF20. Otro ejemplo es el de los
trabajadores industriales que rinden a destajo y reciben el salario en función de las partes ensambladas, mediante el
sistema a veces denominado de precio por pieza.

En un programa de refuerzo de razón variable (RV), la cantidad de respuestas necesarias para que se produzca el
refuerzo cambia de forma impredecible en cada ensayo. El promedio de respuestas requerido para obtener el refuerzo es el
valor que se especifica para su designación. Por ejemplo, supongamos que a lo largo de varios meses, un representante
consigue un promedio de una venta por cada diez casas que visita. Esto no significa que el vendedor haya hecho
exactamente una venta cada diez casas, sino que a veces la venta se habrá producido tras visitar cinco, o incluso haya
logrado pedidos en dos casas consecutivas y en ocasiones habrá recorrido muchas viviendas sin vender nada. Sin embargo
a lo largo de varios meses, ha necesitado un promedio de diez visitas a domicilio para que se produzca el refuerzo. La
abreviatura del intervalo de refuerzo que precisa de un promedio de diez respuestas es RV10.
Al igual que sucedía con los programas de razón fija, los de razón variable también producen una tasa elevada de
respuesta, con la ventaja de que producen poca o ninguna pausa post-refuerzo.

3.4.2 Programas de intervalo

Programas de intervalo simple


Programa de intervalo fijo (IF), se refuerza la primera respuesta que se produce después de que haya transcurrido un
periodo de tiempo fijo tras la última aparición del refuerzo), con lo cual comienza un nuevo intervalo. El único requisito
para lograr la recompensa es que la persona emita la conducta cuando, debido al tiempo transcurrido, el refuerzo está ya
disponible. El valor del programa de intervalo variable es la duración del tiempo que hay esperar hasta que el refuerzo está
disponible; por ejemplo, si ha de transcurrir un minuto antes de volver a reforzar la conducta, estamos ante un programa
de intervalo fijo de un minuto (IF1).
El siguiente ejemplo ilustra los efectos habituales de un programa de intervalo fijo: supongamos que dos pequeños, de
cuatro y cinco años aproximadamente, juegan todas las mañanas y, más o menos, dos horas después del desayuno, quien
les cuida tiene preparado el almuerzo y aproximadamente unas dos horas después, tiene preparada la comida. Así, la
conducta de acercarse a la cocina está reforzada mediante un programa de intervalo fijo de dos horas. A medida que se va
acercando el final de cada periodo de dos horas, los niños aumentan la frecuencia de visitas a la cocina y de preguntas,
«¿está ya lista la comida?». Después de comer, salen a jugar y transcurre bastante tiempo antes de que vuelvan a la cocina.
Aquí, el comportamiento infantil de visitar la cocina es característico del que producen los programas de refuerzo de
intervalo fijo. Es decir, en el supuesto de que los participantes no dispongan de relojes ni se les diga la hora, los programas
de intervalo fijo generan: (a) una tasa de respuesta que aumenta gradualmente a medida que se acerca el final del intervalo
y (b) una pausa post-refuerzo. Hay que señalar que el término «pausa» no significa que no se produzca ninguna conducta,
sino que simplemente no aparece la conducta pertinente. La duración de la pausa post-refuerzo depende de valor del
intervalo: a mayor valor, es decir, cuanto más tiempo transcurre entre refuerzos, más prolongada es la pausa.

En un programa de refuerzo de intervalo variable (IV), la duración de los intervalos entre refuerzos cambia de forma
impredecible. El promedio de duración de los intervalos que han de transcurrir para obtener el refuerzo es el valor que se
especifica para su designación. Por ejemplo, si el tiempo medio que ha de transcurrir para que un refuerzo esté disponible
son veinticinco minutos, la abreviatura del programa será IV25 minutos. Los programas de intervalo variable generan una
tasa de respuesta relativamente estable, sin pausa post- refuerzo o a lo sumo muy breve.
Como sucedía en los programas intermitentes descritos anteriormente, los sistemas de intervalo variable producen mayor
resistencia a la extinción que los programas de refuerzo continuo; sin embargo, la respuesta es inferior durante la
extinción en los programas de intervalo variable que en los de razón fija o razón variable.

Hay numerosos ejemplos cotidianos de programas de intervalo variable: comprobar si tenemos mensajes en el contestador
del teléfono o en el correo electrónico lo son porque éstos pueden aparecer en cualquier momento.

En realidad, los programas de intervalo simple no suelen emplearse en las intervenciones para la modificación de la
conducta por varias razones: (a) el intervalo fijo genera pausas post-refuerzo prolongadas; (b) aunque el intervalo variable
no da lugar a pausas post-refuerzo, produce tasas de respuesta inferiores a los programas de razón; y (c) los programas de
intervalo simple obligan a un seguimiento continuo del comportamiento al finalizar los intervalos hasta que aparece la
respuesta pertinente.

Programas de intervalo con margen limitado


Añadir un margen limitado a un programa de intervalo tiene un efecto muy evidente sobre el comportamiento. El margen
limitado es un plazo finito, que aparece una vez que el refuerzo está disponible y dentro del cual ha de producirse la
respuesta para ser reforzada. Un margen limitado es esencialmente un plazo límite para cumplir el requisito de respuesta
de un programa de refuerzo. Esto es, una vez que se ha «establecido» el refuerzo, se «oferta» su disponibilidad durante un
periodo limitado, por ello se dice que hay un margen de tiempo limitado para su obtención.
Los programas de intervalo con márgenes limitados breves producen efectos parecidos a los programas de razón, incluso
al generar tensión si se introduce un incremento brusco significativo del intervalo. Añadir un margen limitado a los
programas con intervalos fijos breves hace que los resultados sean parecidos a los obtenidos en los programas de razón
fija; pero en los programas de intervalo variable, el efecto del margen limitado hace que los resultados se asemejen a los
obtenidos en programas de razón variable. Por todo ello, es frecuente que algunos profesores usen los programas de
intervalo con márgenes limitados cuando quieren provocar un comportamiento equivalente al que hubieran obtenido con
los programas de razón, pero sin necesidad de llevar la cuenta de la frecuencia del comportamiento; por ejemplo, cuando
la profesora sólo puede observar el comportamiento periódicamente o a intervalos irregulares.

Garry Martin y Joseph Pear (2008). Modificación de conducta: qué es y cómo aplicarla. Madrid: Pearson Educación, S.A.