Está en la página 1de 27

Universidad Popular de la Chontalpa

27MSU0025E
Materia: Análisis conductual

Trabajo: Antología

Maestro: Psic. Marco Antonio Sosa León

Alumno: Carlos Alberto Alejo Félix

Licenciatura en Psicología
3er Cuatrimestre
INDICE

INTRODUCCIÓN ........................................................................................ 3
ANTECEDENTES DEL CONDICIONAMIENTO OPERANTE ..................... 4
B. F. Skinner ............................................................................................... 5
Diferencia entre condicionamiento clásico y operante ................................. 8
Conducta operante.................................................................................... 10
DEFINICION OPERACIONAL ................................................................... 12
PRINCIPIOS Y CONCEPTOS .................................................................. 13
Reforzador Positivo y Negativo ................................................................. 14
PROGRAMAS DE REFORZAMIENTO ..................................................... 16
CONDUCTA OPERANTE ......................................................................... 20
TECNICAS OPERANTES PARA DESARROLLAR CONDUCTAS ............ 20
TÉCNICAS OPERANTES PARA REDUCIR O ELIMINAR CONDUCTAS 21
Castigo...................................................................................................... 24
Aproximaciones sucesivas ........................................................................ 26
Contingencia de tres términos ................................................................... 26
Ética y Psicología ...................................................................................... 26
BIBLIOGRAFÍA ......................................................................................... 27

2
INTRODUCCIÓN

El propósito de esta antología es dar a conocer parte de la historia del

Condicionamiento operante, así como una descripción paso a paso de cada uno de los

temas y subtemas aquí abordados.

Además se explica a través de ejemplos los conceptos acuñados en esta pequeña guia

que servirá de consulta en un futuro; se presenta de igual manera las teorías de las

diferentes personas que estuvieron involucradas dentro de la investigación del

condicionamiento y los resultados encontrados a través de sus diferentes experimentos.

Dentro de esta antología se anexa las bases presentadas del condicionamiento clásico

y el condicionamiento operante, dando a conocer las similitudes y diferencias que tiene

cada uno.

Se presenta una biografía del padre del condicionamiento y la teoría que logro

comprobar usando ratas y la famosa “Caja de Skinner”, experimento que lo llevo a

comprobar la idea de que el ambiente exterior influye dentro del comportamiento del ser

humano y como a través de condiciones se pueden modificar ciertas conductas

haciendo uso de cada uno de los métodos proporcionados en este documento.

3
ANTECEDENTES DEL CONDICIONAMIENTO OPERANTE

El psicólogo Edward Thorndike (1874-1949) fue uno de los pioneros en el estudio del
condicionamiento instrumental. Para ello, ideó sus denominadas «cajas de solución de
problemas», que eran jaulas de las que los gatos (que eran los animales con los que
trabajaba) podían escapar mediante acciones simples como manipular un cordón,
presionar una palanca o pisar una plataforma. Como incentivo para resolver el
problema, el gato podía ver y oler que fuera de la caja había comida, pero no podía
alcanzarla. Al principio, el gato comenzaba a hacer movimientos azarosos, hasta que
casualmente resolvía el problema, por ejemplo tirando de la polea que abría la jaula.
Sin embargo, cada vez que Thorndike metía al gato en la jaula, tardaba menos en salir.
Esto se debía a que se estaba produciendo un condicionamiento operante: la conducta
de tirar de la polea estaba siendo reforzada por su consecuencia (la apertura de la caja
y la obtención de la comida). Esta conducta, al ser reforzada, se convertía en la
conducta más probable en un futuro cuando las circunstancias eran similares.

Thorndike fue el primero en reconocer que este condicionamiento incluye algo más que
una respuesta y un reforzador. La respuesta se da en presencia de unos estímulos
determinados, considerándose tres sucesos: el estímulo, la respuesta y la
consecuencia de la respuesta o reforzador.

Esta estructura facilita el desarrollo de diferentes vinculaciones como sería la


asociación entre el estímulo y la respuesta, la cual fue para Thorndike clave para la
formulación de la ley del efecto. A través de ésta afirmó que las respuestas que vayan
seguidas de consecuencias reforzantes, tendrán mayor probabilidad de ocurrencia
cuando el estímulo vuelva a aparecer.

Por el contrario, aquellas respuestas que son seguidas de consecuencias negativas,


tendrán una menor probabilidad de ocurrencia cuando el estímulo vuelva a aparecer. La
ley del efecto es el antecedente del condicionamiento operante o condicionamiento
instrumental, como era nombrado por Thorndike.

4
Pero para Skinner, psicólogo del conductismo, el condicionamiento era el
fortalecimiento de las conductas según las consecuencias que anteriormente se
hubieran obtenido.

En esta línea, existen dos formas de condicionamiento:

• El clásico o pavloviano: se basa en la asociación de estímulos incondicionados y


condicionados, siendo las respuestas controladas por los estímulos antecedentes.

• El condicionamiento operante: los estímulos consecuentes o reforzadores hacen


que se emita una conducta determinada. Skinner explica que si la conducta es seguida
de un reforzador positivo, aumentaría la probabilidad de emisión de dicha conducta en
un futuro. Al contrario, si una respuesta no va seguida de un reforzador o ese reforzador
es negativo, la probabilidad de emitir dicha conducta en un futuro será menor.

B. F. Skinner

1904-1990

Burrhus Frederic Skinner nació el 20 de marzo de 1904 en la pequeña ciudad de


Susquehanna en Pensilvania.

Su padre era abogado y su madre una inteligente y fuerte ama de casa. Su crianza fue
al viejo estilo y de trabajo duro.

Burrhus era un chico activo y extravertido que le encantaba jugar fuera de casa y
construir cosas y de hecho, le gustaba la escuela. Sin embargo, su vida no estuvo
exenta de tragedias. En particular, su hermano murió a los16 años de un aneurisma
cerebral.

Burrhus recibió su graduado en Inglés del Colegio Hamilton en el norte de Nueva York.
No encajó muy bien sus años de estudio y ni siquiera participó de las fiestas de las
fraternidades de los juegos de fútbol. Escribió para el periódico de la universidad,
incluyendo artículos críticos sobre la misma, la facultad e incluso contra ¡Phi Beta

5
Kappa! Para rematar todo, era un ateo (en una universidad que exigía asistir
diariamente a la capilla).

Al final, se resignó a escribir artículos sobre problemas laborales y vivió por un tiempo
en Greenwich Village en la ciudad de Nueva York como “bohemio”. Después de
algunos viajes, decidió volver a la universidad; esta vez a Harvard. Consiguió su
licenciatura en psicología en 1930 y su doctorado en 1931; y se quedó allí para hacer
investigación hasta 1936.

También en este año, se mudó a Mineápolis para enseñar en la Universidad de


Minesota. Allí conoció y más tarde se casó con Ivonne Blue. Tuvieron dos hijas, de las
cuales la segunda se volvió famosa como el primer infante que se crió en uno de los
inventos de Skinner: la cuna de aire. Aunque no era más que una combinación de cuna
y corral rodeada de cristales y aire acondicionado, parecía más como mantener a un
bebé en un acuario.

En 1945 adquirió la posición de jefe del departamento de psicología en la Universidad


de Indiana. En 1948 fue invitado a volver a Harvard, donde se quedó por el resto de su
vida. Era un hombre muy activo, investigando constantemente y guiando a cientos de
candidatos doctorales, así como escribiendo muchos libros. Aunque no era un escritor
de ficción y poesía exitoso, llegó a ser uno de nuestros mejores escritores sobre
psicología, incluyendo el libro Walden II, un compendio de ficción sobre una comunidad
dirigido por sus principios conductuales. Nos referiremos a partir de aquí al término
conductual, por ser más apropiado dentro del campo de la psicología.

El 18 de agosto de 1990, Skinner muere de leucemia, después de convertirse


probablemente en el psicólogo más famoso desde Sigmund Freud.

Teoría

El sistema de Skinner al completo está basado en el condicionamiento operante. El


organismo está en proceso de “operar” sobre el ambiente, lo que en términos populares
significa que está irrumpiendo constantemente; haciendo lo que hace. Durante esta

6
“operatividad”, el organismo se encuentra con un determinado tipo de estímulos,
llamado estímulo reforzador, o simplemente reforzador. Este estímulo especial tiene el
efecto de incrementar el operante (esto es; el comportamiento que ocurre
inmediatamente después del reforzador). Esto es el condicionamiento operante: el
comportamiento es seguido de una consecuencia, y la naturaleza de la consecuencia
modifica la tendencia del organismo a repetir el comportamiento en el futuro.”

Imagínese a una rata en una caja. Esta es una caja especial (llamada, de hecho, “la
caja de Skinner”) que tiene un pedal o barra en una pared que cuando se presiona,
pone en marcha un mecanismo que libera una bolita de comida. La rata corre alrededor
de la caja, haciendo lo que las ratas hacen, cuando “sin querer” pisa la barra y ¡presto!,
la bolita de comida cae en la caja. Lo operante es el comportamiento inmediatamente
precedente al reforzador (la bolita de comida). Prácticamente de inmediato, la rata se
retira del pedal con sus bolitas de comida a una esquina de la caja.

Un comportamiento seguido de un estímulo reforzador provoca una probabilidad


incrementada de ese comportamiento en el futuro.

¿Qué ocurre si no le volvemos a dar más bolitas a la rata? Aparentemente no es tonta y


después de varios intentos infructuosos, se abstendrá de pisar el pedal. A esto se le
llama extinción del condicionamiento operante.

Un comportamiento que ya no esté seguido de un estímulo reforzador provoca una


probabilidad decreciente de que ese comportamiento no vuelva a ocurrir en el futuro.

Ahora, si volvemos a poner en marcha la máquina de manera que el presionar la barra,


la rata consiga el alimento de nuevo, el comportamiento de pisar el pedal surgirá de
nuevo, mucho más rápidamente que al principio del experimento, cuando la rata tuvo
que aprender el mismo por primera vez. Esto es porque la vuelta del reforzador toma
lugar en un contexto histórico, retroactivándose hasta la primera vez que la rata fue
reforzada al pisar el pedal.

7
Diferencia entre condicionamiento clásico y operante

La diferencia principal entre el condicionamiento clásico y el operante es que el primero


se refiere al aprendizaje de información sobre un estímulo, mientras que el segundo
implica un aprendizaje sobre las consecuencias de la respuesta.

Skinner opinaba que la conducta era mucho más fácil de modificar si se manipulaban
sus consecuencias que si simplemente se asociaban estímulos a ésta, como sucede en
el condicionamiento clásico. El condicionamiento clásico se basa en la adquisición de
respuestas reflejas, con lo cual explica una menor cantidad de aprendizajes y sus usos
son más limitados que los del operante, ya que éste hace referencia a conductas que el
sujeto puede controlar a voluntad.

Similitudes

• El fenómeno de la extinción, entendido como la disminución de la fuerza de


repuesta causada por el no–reforzamiento o como el decaimiento de una respuesta
condicionada, es común a los dos tipos de condicionamiento.

• Una respuesta que se ha extinguido, recupera su fuerza con el descanso.

• En ambos tipos de condicionamiento se presenta una característica de


discriminación de los estímulos, tanto si el sujeto es reforzado para que responda a un
estímulo, como si se le condiciona para que produzca una respuesta condicionada.

Diferencias

• El condicionamiento clásico es una forma de aprendizaje estímulo–estímulo –


preparación de respuestas–, mientras que el operante es un aprendizaje estímulo–
respuesta –se fija la respuesta–.

8
• Retomando las leyes del condicionamiento clásico, se evidencia un principio de
continuidad, mientras que en el condicionamiento operante se implica además una ley
de efecto –o de concreción de una respuesta–.

• Una diferencia altamente relevante es el tipo de respuesta. En el


condicionamiento clásico la respuesta incondicionada o condicionada es siempre la
misma, mientras que en el condicionamiento operante, aunque existe un cierto margen
de predictibilidad, las repuestas suelen ser distintas.

9
Conducta operante

El condicionamiento operante es una forma de aprendizaje mediante la cual un sujeto


tiene más probabilidades de repetir las formas de conducta que conllevan
consecuencias positivas y menos probabilidades de repetir las que conllevan
consecuencias negativas. Es un tipo de aprendizaje asociativo que tiene que ver con el
desarrollo de nuevas conductas en función de sus consecuencias, y no con la
asociación entre estímulos y conductas como ocurre en el condicionamiento clásico.

Fue B.F. Skinner, psicólogo norteamericano contemporáneo, quien descubrió un


segundo tipo de condicionamiento denominado: Condicionamiento Operante.

El experimento llevado a cabo por Skinner fue el siguiente: colocó a una rata blanca
hambrienta (privada de alimento por 24 horas) en una caja bien aislada en la que se
encuentra una palanca que puede ser accionada por el animal. Si la rata acciona la
palanca, un dispositivo mecánico deja caer una bolilla de alimento al comedero
instalado dentro de la misma caja dentro de la misma caja, cerca de la palanca.

En un comienzo, el comportamiento del animal en la caja de experimentación es más o


menos caótico: explora la caja y corre de aquí para allá, sin tocar la palanca. Al cabo de
un tiempo, y por casualidad acciona la palanca y el alimento cae en el comedero p. La
rata ingiere la bolilla y vuelve a accionar la palanca, repitiéndose lo sucedido
anteriormente. El proceso se repite con insistencia y la rata corre sin cesar del
comedero a la palanca.

La característica esencial del condicionamiento operante reside en el refuerzo


(alimento) que percibe la conducta operante (accionar la palanca).

La expresión Condicionamiento Operante refleja el hecho de que el animal opera, o


actúa, de acuerdo con el ambiente natural o el del laboratorio, para producir un efecto.
El efecto producido determinará si el animal ejecuta de nuevo una respuesta, o si
continuará comportándose como antes.

Es la teoría del aprendizaje que intenta explicar la conducta que es nueva para el
organismo proponiendo que dicha conducta se adquiere debido a que las

10
consecuencias que percibe el organismo aprendiz aumentan o disminuyen la frecuencia
de aparición d esas conductas.

Conducta operante: es un comportamiento que es nuevo para el organismo por que no


se encuentra programado en su código genético.

Evento reforzante: se trata de la entrega de algún estímulo del ambiente que satisface
alguna necesidad del organismo que aprende (la entrega de un premio).

Estímulo reforzante: es un estímulo del ambiente que aplicado al organismo que


aprende tiene la capacidad de hacer que aumente la frecuencia de aparición de alguna
conducta.

TIPOS DE APRENDIZAJE SEGÚN EL CONDICIONAMIENTO OPERANTE.

Aprendizaje por reforzamiento: es el aprendizaje en el cuál la conducta es nueva para


el organismo aumenta su frecuencia de aparición luego de recibir algún estímulo
reforzante.

Aprendizaje por evitación: es el aprendizaje donde el organismo aprende una


conducta nueva que termina o impide la aplicación de algún estímulo aversivo
(desagradable), y aumenta la frecuencia de aparición de esa conducta para que no
regrese.

Aprendizaje supersticioso: es el aprendizaje donde alguna consecuencia


casualmente reforzante o aversiva aumenta la frecuencia de aparición de alguna
conducta.

Aprendizaje por castigo: es el aprendizaje donde un organismo aumenta la frecuencia


de aparición de las conductas que no fueron seguidas o que no recibieron ningún
estímulo aversivo o desagradable.

11
DEFINICION OPERACIONAL

Una definición operacional constituye el conjunto de procedimientos que describe las


actividades que un observador debe realizar para recibir las impresiones sensoriales
(sonidos, impresiones visuales o táctiles, etc.), que indican la existencia de un concepto
teórico en mayor o menor grado (Reynolds, 1971, p. 52). En otras palabras, especifica
qué actividades u operaciones deben realizarse para medir una variable.

Por ejemplo: la definición operacional de la variable “temperatura” sería el termómetro


(con las respectivas instrucciones de cómo medir e interpretar la temperatura);
“‘inteligencia” podría ser definida operacionalmente como las respuestas a una
determinada prueba de inteligencia; el aprendizaje de un alumno en un curso de
investigación puede medirse por medio de varios exámenes, un trabajo, una
combinación de exámenes, trabajos y prácticas.

12
PRINCIPIOS Y CONCEPTOS

Lo que es o no es un refuerzo durante el condicionamiento operante depende del


individuo y de las circunstancias en que se encuentra en ese momento. Por ejemplo,
unas galletas pueden suponer un refuerzo para un perro hambriento, pero no para uno
que acaba de comer carne.

Los refuerzos se pueden dividir en dos grupos: los primarios o intrínsecos y los
secundarios o extrínsecos.

 Reforzador Primario o intrínseco: Son aquellos que no dependen de la historia


del sujeto, sino de las características biológicas; son comunes a todos los sujetos
de la especie y tienen un carácter altamente adaptativo, guardando relación
directa con la supervivencia del sujeto, de la especie y son necesarios para la
supervivencia. Por ejemplo, las respuestas que satisfacen necesidades
fisiológicas, como beber agua cuando se tiene sed o comer cuando se tiene
hambre.

 Reforzador Secundario o extrínseco: los refuerzos secundarios son


aprendidos, y en ellos el premio o gratificación no es parte de la actividad misma,
sino que obtienen su carácter de refuerzo por asociación con los reforzadores
primarios. Estos no tienen relación directa con la supervivencia y dependen, más
bien, de la historia individual del sujeto.

 Reforzadores generalizados: Son todos aquellos reforzadores que mientras


más son presentados no reducen su efectividad, sino que, se mantiene. Son
independientes de la intensidad o frecuencia que tienen, además tienen una
relación estrecha con la historia individual.

13
Reforzador Positivo y Negativo

Un reforzador o refuerzo es todo ese estimulo que hace que la conducta que lo ha
provocado aumente.

 Reforzador Positivo: Tiene lugar cuando una respuesta va seguida de una


recompensa o cualquier otro evento positivo, y aumenta la probabilidad de que
esta vuelva a ocurrir. Es un refuerzo positivo dar un caramelo a un niño por
haber concluido sus obligaciones; la conducta de hacer sus obligaciones
aumenta porque el niño recibe algo que le agrada (un caramelo).
El refuerzo positivo incorpora una conducta nueva, aumenta una existente o
elimina una conducta inapropiada.

 Reforzador Negativo: Tiene lugar cuando una respuesta va seguida de la


terminación o eliminación de un evento desagradable. Por ejemplo, un niño
acabara de comerse la sopa (conducta) con la promesa de que no tendrá que
comerse el pescado que tanto le disgusta (la retirada del pescado como refuerzo
negativo) o una persona al presentar fuertes dolores de cabeza, toma algún
analgésico que haga desaparecer esa molestia. Acá el estímulo (dolor de
cabeza) que antecede a la conducta, es eliminado tomando un analgésico.
Hay ocasiones en que los refuerzos negativos son una vía interesante para
motivar a personas a realizar cosas que le resultan difíciles.

El Reforzador Negativo tiene importancia en dos tipos de aprendizaje:


o Condicionamiento de escape: Respuesta que termina con un
estímulo aversivo. Cuanto más aversivo sea el estímulo es más
probable que se de dicho aprendizaje de escape. El estímulo
aversivo puede ser algo doloroso o no, basta con que sea muy
aversivo. El condicionamiento de escape tiene la desventaja de que
el estímulo aversivo debe estar presente para que ocurra la
respuesta deseada. Por ejemplo, se coloca a un niño en una silla
tras haber cometido una “falta” y se le dice que debe tomar una

14
postura correcta cuando suene el clic de una campana, al estar
pendiente del sonido, antes de que éste ocurriera, mostraba una
buena postura. Por este motivo, el condicionamiento de escape no
suele ser una contingencia final para mantener la conducta, sino
más bien un entrenamiento preparatorio para el condicionamiento
de evitación.
o Condicionamiento de Evitación: El principio de condicionamiento
de evitación establece que la frecuencia de una conducta
aumentará si previene la ocurrencia de un estímulo aversivo. Por lo
general se requiere algún estimulo pre aversivo. Busca evitar la
aparición del estímulo aversivo. Durante el procedimiento de
evitación empleado con el niño, una buena postura evitaba la
ocurrencia del tono. Nótese que tanto el condicionamiento de
escape como el de evitación implican la presentación de un
estímulo aversivo y en ambos aumenta la probabilidad de la
conducta. No obstante, una respuesta de escape elimina un
estímulo aversivo que ya se ha presentado, mientras que la
respuesta de evitación impide que ocurra el estímulo aversivo.
Puede ser de dos tipos:

 Activo: Emitir una respuesta determinada. Por ejemplo


estudiar para evitar suspender. Puesto no soportamos la
angustia o el fracaso.
 Pasivo: No emitir una respuesta determinada. Por ejemplo
evitar una fiesta por incomodidad en eventos sociales.

15
PROGRAMAS DE REFORZAMIENTO

En el estudio de los programas son esenciales un sistema de notación y una


terminología. La especificación sin ambigüedades de los programas es sólo un requisito
necesario en un sistema de notación, los sistemas ideales podrían emplearse para
generar procedimientos experimentales de interés conductual y explicarían el análisis
de la conducta bajo un programa determinado. Hay ventajas y desventajas en todos los
sistemas de notación que se han utilizado para describir los programas (Ferster y
Skinner, 1957, Findley, 1962, Mechner, 1959, Schoenfeld, Cumming y Hearst, 1956).
Las designaciones de los programas hechos por Ferster y Skinner proporcionan un
conjunto de términos que tienen connotaciones para todos aquellos que están
familiarizados con la literatura sobre programas.

Los programas de reforzamiento son reglas que indican el momento y la forma en que
la aparición de la respuesta va a ir seguida de un reforzador sobre la administración del
reforzador. Estos programas influyen en distintos aspectos del aprendizaje, como la
rapidez con la que se aprende inicialmente la respuesta, la frecuencia con la que se
ejecuta la respuesta aprendida, la frecuencia con la que se hacen las pausas después
de los reforzamientos, o el tiempo que se sigue ejecutando la respuesta una vez que el
refuerzo deja de ser predecible o se suspende.

Skinner también estableció gracias a sus investigaciones diversos programas de


refuerzo, entre los que están los programas de reforzamiento continuo y los programas
de reforzamiento intermitente.

 Programa de refuerzo continúo: Están basados en el reforzamiento constante


de la respuesta cada vez que se presente, es decir, cada vez que el sujeto
ejecute la conducta deseada obtendrá un estímulo reforzador o positivo.

16
 Programa de refuerzo intermitente: Aquí el sujeto no siempre obtiene el
reforzador al realizar la conducta deseada. Estos se definen en base al número
de respuestas dadas o al intervalo de tiempo transcurrido entre respuestas,
dando lugar a diferentes procedimiento.

 Programa de refuerzo de razón: En esta sólo reforzamos después de un


número de respuestas, además se utiliza un contador. Los refuerzos de razón se
dividen en dos tipos:
 Programa de razón fija: En estos programas el reforzador se proporciona
cuando el sujeto genera respuestas fijas y constantes. Por ejemplo, en un
programa de razón 10 la persona obtiene el reforzador tras haber
realizado diez respuestas cuando se presenta el estímulo.
 Programa de razón variable: Éste se construye igual que el anterior,
pero en este caso el número de respuestas que el sujeto debe dar para
obtener el reforzador es variable.
El reforzador seguiría dependiendo del número de respuestas emitidas
por el sujeto pero con una razón variable, gracias a la cual se evita que el
sujeto llegue a predecir cuándo obtendrá el reforzador.

 Programa de refuerzo de intervalo: En los programas de intervalo la obtención


del reforzador no depende del número de respuestas que el sujeto dé, sino que
está determinado por el tiempo transcurrido. En consecuencia se refuerza la
primera respuesta producida después de haber pasado un periodo de tiempo
determinado. Se utiliza un tomador de tiempo (cronometro). Generalmente
producen menor tasa que los de razón y de igual manera se dividen en dos
grupos según su objetivo:
 Programa de intervalo fijo: En los programas de intervalo fijo el tiempo
entre reforzador y reforzador es siempre el mismo.

17
 Programa de intervalo variable: En estos programas el reforzador se
obtiene después de un tiempo, aunque el tiempo es distinto para cada
reforzador recibido.

 Programa de refuerzo compuesto: Un programa compuesto es aquel que


refuerza una sola respuesta de acuerdo a los requisitos de dos o más programas
operando al mismo tiempo. En un programa compuesto, la ocurrencia de una
respuesta podrá ser reforzada cuando se hayan cubierto los requisitos de todos
los programas componentes, o bien cuando se hayan cubierto los requisitos de
cualquiera de esos programas; o también cuando se cumpla cualquier
combinación de los requisitos de dos o más programas. Como se podrá ver,
existe un gran número de posibilidades de combinación en los programas
compuestos. Existen dos procedimientos para el estudio de las interacciones
entre dos programa compuestos. Por una parte podemos estudiar la diferencia
que existe en la ejecución de un determinado programa cuando este se presenta
solo y cuando se presenta como un componente de un programa múltiple; por
otro lado también podemos estudiar la diferencia en las ejecuciones de un
programa que se emplea como componente en dos o más programas múltiples
diferentes. Desde luego que también existen interacciones dentro de los
programas compuestos.

 Programa de refuerzo concurrente: Comprende el reforzamiento de dos o más


respuestas de acuerdo a dos o más programas de reforzamiento operando al
mismo tiempo. Cada programa es independiente de la conducta que está siendo
reforzada en el otro programa. La programación concurrente está presente en
todas partes aun cuando solamente una respuesta sea reforzada, existirá
programación concurrente en el sentido de que toda la conducta restante este
siendo extinguido. Sin embargo el término concurrente se reserva para aquellos
casos en que se dispone un programa explicito adicional para una segunda
respuesta.

18
Si bien los programas concurrentes individuales son teóricamente
independientes las contingencias que resultan de las asociaciones tanto
temporal como espacial de las respuestas y de los programas producirán
interacciones entre sí. Por ejemplo abra una interacción cuando la respuesta de
un pichón sea reforzada inmediatamente de que cambia de una respuesta a otra.
Cuando esto ocurre la secuencia completa (responder sobre la primera llave y
después cambiar a la segunda), será reforzada en base al programa asociado
con la segunda llave. Esta frecuencia de respuesta se convierte en una cadena
de conducta.

 Programa de refuerzo múltiple: Técnicamente un programa de reforzamiento


múltiple consiste en dos o más programas independientes los cuales se
presentan al organismo en forma sucesiva, cada uno de ellos en presencia de un
estímulo discriminativo característico. Los programas múltiples son programas
combinados, en los que se agrega un estímulo discriminativo característico.

19
CONDUCTA OPERANTE

El condicionamiento instrumental u operante es un procedimiento de aprendizaje que se


basa en que la probabilidad de que se dé una respuesta determinada depende de las
consecuencias esperadas. En el condicionamiento operante la conducta es controlada
por estímulos discriminativos presentes en la situación de aprendizaje que transmiten
información sobre las consecuencias probables de la respuesta.

Por ejemplo, un cartel de “Abierto” en una puerta nos indica que si intentamos girar el
pomo lo más probable es que se abra. En este caso el cartel sería el estímulo
discriminativo y la apertura de la puerta funcionaría como reforzador positivo de la
respuesta instrumental de girar el pomo.

TECNICAS OPERANTES PARA DESARROLLAR CONDUCTAS

Técnica de instigación

Se consideran técnicas de instigación aquellas que dependen de la manipulación de


estímulos discriminativos para aumentar la probabilidad de que se dé una conducta.

Este término incluye las instrucciones que incrementan determinadas conductas, la guía
física, que consiste en mover o colocar partes del cuerpo de la persona entrenada, y el
modelado, en que se observa a un modelo realizando una conducta para poder imitarlo
y aprender cuáles son sus consecuencias. Estos tres procedimientos tienen en común
que se centran en enseñar directamente al sujeto cómo tiene que realizar una acción
determinada, sea verbal o físicamente.

20
Moldeamiento

Consiste en acercar gradualmente una conducta determinada a la conducta objetivo,


empezando por una respuesta relativamente parecida que el sujeto pueda realizar y
modificándola poco a poco. Se lleva a cabo por pasos (aproximaciones sucesivas) a los
que se aplica reforzamiento.

El moldeamiento es considerado especialmente útil para establecer conductas en


sujetos que no se pueden comunicar verbalmente, como las personas con discapacidad
intelectual profunda o los animales.

Encadenamiento

Con él se forma una nueva conducta a partir de la descomposición en pasos o


secuencias más sencillas, reforzando cada respuesta dada en cada uno de los pasos
para así llevar al establecimiento de una respuesta más compleja en el repertorio
conductual del sujeto.

Se pueden llegar a formar cadenas largas de respuestas utilizando reforzadores


condicionados, adoptando una unidad funcional y cuyo establecimiento lleva a la
adquisición y definición de una destreza particular.

TÉCNICAS OPERANTES PARA REDUCIR O ELIMINAR CONDUCTAS

Extinción

Otro modo de reducir la frecuencia de una conducta no deseable ignorarla cuando se


produce. Así se produce la extinción de la misma al no recibir ningún refuerzo que la
mantenga.

21
Ignorar la conducta es una técnica muy fácil y de gran eficacia. En muchas ocasiones la
familia al aplicar un castigo por una conducta indeseable, lo que hace es, a veces,
reforzarla; mientras que si le hubiera pasado algo sin prestarle atención, el niño, al ver
que nadie le hace caso y que aquella conducta no es útil para él, dejaría de realizarla
por lo que desaparecería por extinción.

Esta técnica resulta muy complicada de aplicar en el medio familiar, ya que al ser varios
adultos los que interactúan con el niño, se pone en riesgo de que unos la apliquen y
otros no, con lo que el efecto de la técnica para la extinción de la conducta es escaso.

El procedimiento de la extinción consiste en la omisión del reforzador después de


haberse presentado la conducta cuya desaparición se está trabajando. Por ejemplo: un
niño se niega a comer; los padres con buena voluntad y sin darse cuenta están
reforzando esta conducta al prestarle atención, con lo que la conducta se mantiene o
aumenta. La técnica de la de la extinción consiste en no prestar atención al niño cuando
se niega a comer, a fin de no reforzar; la falta de atención propicia que la conducta
termine por desaparecer.

En resumen, se puede decir que en la extinción se deja de recompensar una conducta


que había sido reforzada con anterioridad. Esto disminuye la probabilidad de que la
respuesta vuelva a darse. Formalmente la extinción es lo opuesto al reforzamiento
positivo.

A largo plazo la extinción es más eficaz para eliminar respuestas que el castigo y el
resto de técnicas operantes para reducir conductas, si bien puede ser más lenta.

Programas de reforzamiento diferencial

Son un subtipo especial de programa de reforzamiento que se utiliza para reducir (no
eliminar) las conductas objetivo aumentando otras respuestas alternativas. Por ejemplo,

22
se podría premiar a un niño por leer y por hacer ejercicio y no por jugar a la consola si
se pretende que esta última conducta pierda valor reforzante.

En el reforzamiento diferencial de tasas bajas se refuerza la respuesta si se da un


determinado periodo de tiempo después de la última vez que se produjo. En el
reforzamiento diferencial de omisión el refuerzo se obtiene si, después de un periodo de
tiempo determinado, la respuesta no se ha producido. El reforzamiento diferencial de
conductas incompatibles consiste en reforzar respuestas incompatibles con la conducta
problema; este último procedimiento se aplica a los tics y la onicofagia, entre otros
trastornos.

Tiempo fuera

El tiempo fuera consiste en aislar al sujeto, en general niños, en un entorno no


estimulante en caso de que se produzca la conducta problemática. También una
variante del castigo negativo, se diferencia del coste de respuesta en que lo que se
pierde es la posibilidad de acceder al refuerzo, no el reforzador en sí.

23
Castigo

Se entiende por castigo un estímulo desagradable o doloroso que disminuye o elimina


la posibilidad de que en el futuro se repita una conducta. En contraste con el refuerzo,
el castigo es un proceso en el que un estímulo es dado después de la presentación de
un comportamiento causando la disminución de la probabilidad de que éste ocurra
nuevamente. No obstante, no elimina la respuesta ya que si la amenaza de castigo
disminuye, la conducta puede volver a aparecer. Hay dos tipos de castigos:

1. Castigo positivo: Este implica la presentación de un estímulo aversivo tras la


realización de un determinado comportamiento. Es dado de manera contingente
a la respuesta dada por el sujeto. En resumen se podría decir que es la adición
de algo que causa la disminución de la repetición de determinada conducta.

Ejemplo: Un niño molestó a su hermana haciéndola gritar muy alto. Debido a


esto, la madre le dio una nalgada. El niño nunca molestó otra vez a su hermana.

2. Castigo negativo: También conocido como castigo por eliminación. Se produce


cuando un evento o resultado favorable se retira después de que un
comportamiento se produce, con el fin de disminuir la probabilidad de que vuelva
a ocurrir ese comportamiento.

Ejemplo: Un adolescente es sorprendido haciendo trampa en un examen.


Entonces sus padres le prohíben utilizar su auto y también le reducen su
mesada. En consecuencia, el adolescente no vuelve a hacer trampa en sus
exámenes.

Una gran intensidad de castigo podrá eliminar completamente la conducta, mientras


que una intensidad leve podrá no tener ningún efecto. Cuando se suspende la

24
presentación del castigo, la tasa de respuesta se incrementa avanzando a un nivel
mayor que el mantenido originalmente por el programa de reforzamiento.

Cuando por primera vez se administra el castigo, el procedimiento podrá provocar


respuestas respondientes tales como correr y saltar por todos lados. Por otro lado, el
castigo indirectamente actúa para facilitar la ocurrencia de determinadas conductas. No
podemos esperar que una conducta se extinga por la aplicación de un castigo o se
reduzca en otras situaciones. Lo que realmente ocurre opuestamente; pues se facilita la
aparición de la conducta cuando se deja de castigar. Los efectos del castigo dependen
también en gran medida, del programa de reforzamiento positivo que está manteniendo
la respuesta castigada.

25
Contingencia de tres términos
Es el modelo básico del condicionamiento operante y está formado por tres
componentes: el estímulo discriminativo, la respuesta y el estímulo reforzador.

Un estímulo discriminativo sería aquel que va a indicar al sujeto que el reforzador


está disponible, señalando que si lleva a cabo una determinada conducta podrá obtener
dicho reforzador. En contraposición tenemos el estímulo delta o estímulos que indican
que la conducta no va a llevar a la obtención de ningún tipo de reforzador.

La respuesta sería la conducta que realizará el sujeto, cuya ejecución le llevará o no a


la obtención del estímulo reforzador.

Un estímulo reforzador, como se ha mencionado anteriormente, es el responsable de


la emisión de la conducta ya que gracias a su aparición la probabilidad de emisión de
una respuesta aumentará o disminuirá en el futuro.

Aproximaciones sucesivas

Son cada una de las conductas –meta intermedias que se establecen hasta llegar a la
conducta final, se trata de ir reforzando sucesivamente a la respuestas que se acerque
conducta que se desea que aparezca, hasta que ésta sede y se refuerza.

Ética y Psicología

La relación entre Psicología y Ética puede considerarse desde diversos puntos de vista.
La psicología puede ayudar al estudioso de la ética a conocer de qué manera se
sedimentan en la intimidad de la persona las convicciones morales, como
conocimientos y como praxis, hasta qué punto la Ética sigue estando condicionada por
la sociedad o por la cultura en que vive o cómo la cercanía de los demás puede influir
en el comportamiento del individuo.

26
BIBLIOGRAFÍA

 Alonso García, José Ignacio (2008). Psicología (3. ª edición). McGraw Hill.
pp. 120-123. ISBN 978-84-481-6117-0.

 Campos, L. (1972). Diccionario de Psicología del Aprendizaje. México: Ciencia


de la Conducta. pp. 120-123.

 Davidoff, Linda L. (1980). Introducción a la psicología (2. ª edición). McGraw Hill.


pp. 170-197. ISBN 968-451-515-4.

 Myers, David G. (1997). Psicología (2. ª edición). Editorial Médica Panamericana.


pp. 224-234. ISBN 84-7903-132-8.

 Tarpy, Roger M. (2003). Aprendizaje: teoría e investigación contemporáneas.


Madrid: McGraw Hill. ISBN 84-481-2492-8.

 Alonso García, José Ignacio (2008). Psicología (3. ª edición). McGraw Hill.
pp. 120-123. ISBN 978-84-481-6117-0.

 Campos, L. (1972). Diccionario de Psicología del Aprendizaje. México: Ciencia


de la Conducta. pp. 120-123.

 Davidoff, Linda L. (1980). Introducción a la psicología (2. ª edición). McGraw Hill.


pp. 170-197. ISBN 968-451-515-4.

 Myers, David G. (1997). Psicología (2. ª edición). Editorial Médica Panamericana.


pp. 224-234. ISBN 84-7903-132-8.

 Tarpy, Roger M. (2003). Aprendizaje: teoría e investigación contemporáneas.


Madrid: McGraw Hill. ISBN 84-481-2492-8.

27

También podría gustarte