Documentos de Académico
Documentos de Profesional
Documentos de Cultura
150
50
0
1 12 24
Prueba
A B
FIGURA 5-9 La investigación de Thorndike creó el marco para el desarrollo del
condicionamiento operante. Mediante la caja problema (A), mostró que los com-
portamientos, que él describió como satisfactorios, tendían a grabarse en el orga-
nismo. Al principio, el animal realizaba respuestas aleatorias al tratar de salir de la
caja y agarrar el pescado (un satisfactor), pero pronto presentaba comportamien-
tos que le permitían escapar y tomar la comida fuera de la caja problema (B).
ley de efecto la puerta de la caja problema se abría y el animal salía para comer el alimento que había sido
Según Thorndike los reforzadores colocado justo fuera de la puerta. En algunos casos salir de la caja problema requería una
promueven el aprendizaje, en simple respuesta como oprimir una palanca o pisar una plataforma. En otros, la respuesta
tanto que los castigos provocan el requerida era más difícil. Por ejemplo, el animal tenía que realizar tres respuestas separadas:
desaprendizaje de las respuestas jalar una cuerda (que levantaba un perno), pisar una plataforma (que levantaba el otro
perno) y alcanzar y girar uno de los dos pestillos a través de las barras al frente de la puerta.
Cuando Thorndike colocó al animal en la caja problema (ya sea en la versión simple o en la
compleja), por lo general le tomaba un largo tiempo escapar. El animal se movía alrededor
de la caja problema y exploraba varias partes de la cámara, de manera aleatoria. Al final, el
animal realizaba la(s) respuesta(s) que abría la puerta. Thorndike regresaba al animal a la
caja problema muchas veces y registraba la cantidad de tiempo que le tomaba escapar. Los
resultados de este procedimiento se observan en la figura 5-9B. Thorndike creía que la pri-
mera respuesta acertada del animal era accidental. Con el tiempo, al animal le tomaba me-
nos tiempo escapar, haciéndose más eficiente para realizar la respuesta (o respuestas)
apropiada. Esta observación condujo a Thorndike a establecer lo que llamó la ley del
efecto (Thorndike, 1911): presentar un “satisfactor” conduce al fortalecimiento o aprendi-
zaje de nuevas respuestas, en tanto que presentar un “perturbador” conduce al debilita-
miento o desaprendizaje de las respuestas. En este caso, el satisfactor (salir y obtener la
comida) parece haberse grabado en el repertorio del animal, en tanto que los intentos falli-
dos parecen haber salido del repertorio de comportamientos.
El trabajo de Thorndike creó el marco para el desarrollo del condicionamiento ope-
rante. La terminología específica cambiaría, pero las ideas básicas tenían sus raíces en la caja
problema de Thorndike. Nadie ha sido más asociado con el condicionamiento operante
que el difunto psicólogo de Harvard B.F. Skinner (1904-1990), quien ha sido considerado
como el psicólogo más famoso del mundo (Fowler, 1990). Skinner tenía una gran influen-
cia de Edward Thorndike, así como de la opinión conductual de John B. Watson sobre la
psicología (véase p. 195). Como hemos visto, Watson creía que si pudiéramos entender
cómo predecir y controlar la conducta, sabríamos todo sobre la psicología. Por tanto, Skin-
ner empezó a buscar el estímulo que controla la conducta. Para aislar estos efectos, desa-
rrolló un ambiente de pruebas especial llamado cámara de condicionamiento operante, la cual
se conoce como caja de Skinner (véase figura 5-10). Aunque Skinner se basaba en el uso de
animales, como ratas y palomas, sus ideas se han aplicado a la conducta humana. La ventaja
de la caja de Skinner y los estudios de laboratorio es que permiten a los investigadores te-
B.F. Skinner entrenando una ner control en su investigación y, por tanto, los investigadores están en una mejor posición
rata en la caja de Skinner. para identificar las influencias reales en la conducta.
206 CAPÍTULO 5
reforzador negativo rre la respuesta meta. Por lo general son considerados deseables y agradables y, por tanto,
Acontecimiento o estímulo elimi- son buscados por las personas y los animales. Por ejemplo, un agente de bienes raíces gana
nado después de la respuesta una comisión por cada casa que vende; las comisiones refuerzan sus intentos por vender
meta, aumentando así la probabi- tantas casas como sea posible. A su pequeño hermano le permiten ver caricaturas los sába-
lidad de que esta respuesta dos después de que limpia su habitación; como resultado, él limpia su habitación todos los
vuelva a ocurrir
sábados. Esperamos que usted haya sido elogiado por recibir buenas clasificaciones en las
reforzador primario pruebas psicológicas; los elogios lo alientan a estudiar aún más en el futuro.
Estímulo que tiene propiedades Reforzadores negativos son acontecimientos o estímulos que se eliminan porque ha
de reforzamiento innatas ocurrido una respuesta. Algunos ejemplos de los reforzadores negativos incluyen tocar mú-
sica para reducir el aburrimiento, limpiar su cuarto para que su compañero deje de quejarse
reforzador secundario
porque usted es desaliñado y tomar medicamentos para reducir el dolor de una cirugía de
Estímulo que adquiere propieda-
des de reforzador al ser asociado
hernia reciente. En estas situaciones algo se detuvo (el aburrimiento), se eliminó (la crítica)
con un reforzador primario o se redujo (el dolor) porque usted realizó una respuesta meta.
debe aprender que los estímulos son reforzadores, también se llaman reforzadores condicio-
nados. El dinero es el mejor ejemplo de un reforzador secundario. Por sí mismo, el dinero
no tiene ningún valor intrínseco; los niños aprenden que el dinero se intercambia por re-
forzadores primarios como el helado, los refrescos, las palomitas de maíz o los dulces. Tam-
bién usamos el dinero para comprar otros alimentos, bebidas y lugares para dormir, como
un departamento, una casa o un cuarto de hotel.
autorización de Psi Chi.
Contingencias y conducta
Skinner acuñó el término condicionamiento operante porque las conductas que realizamos
voluntariamente (a diferencia de las conductas que son provocadas o “sacadas” del orga-
nismo) operan de alguna manera en el entorno que nos rodea. Los cambios resultantes en
el entorno determinan lo que pasa con una conducta meta dada (respuesta). Si una con-
ducta es seguida por un reforzador positivo, como cuando un estudiante responde una
pregunta y el profesor le dice “¡Excelente!”, la conducta tiende a aumentar en el futuro.
Skinner notó que se establece una contingencia entre la conducta y los resultados: las con-
tingencias toman la forma de las relaciones “Si ______ entonces _____”. Si un estudiante
da una buena respuesta, entonces el profesor dirá “Excelente” (véase figura 5-11). En otros
casos, como en el castigo, la contingencia es diferente: si un niño corre hacia la calle, en-
tonces sus padres le pegarán, lo que produce una disminución de la conducta (correr hacia
la calle) en el futuro.
Reforzador positivo. Es un concepto fácil de entender porque existen muchos ejem-
plos en la vida diaria. El reforzador positivo ocurre cuando una conducta meta (respuesta)
es seguida por la presentación de un reforzador positivo, el cual tiene el efecto de tener más
probabilidades de que la conducta ocurra en el futuro. A continuación presentamos algunos
ejemplos de reforzadores cotidianos, que aparecen en forma de contingencias:
• Si Agnes, de 5 años, recoge todos los juguetes del piso de su habitación (conducta
meta), entonces su mamá le dará más postre en la cena (presentación de un refor-
zador positivo que produce un reforzamiento positivo).
• Si Jason, de 16 años, corta el pasto (conducta meta), entonces sus padres le presta-
rán el automóvil el sábado por la noche (presentación de un reforzador positivo
que produce un reforzamiento positivo).
208 CAPÍTULO 5
modelamiento esta conducta? La respuesta parece ser negativa; la cantidad de estudiantes que admiten ha-
Una forma de condicionamiento ber hecho trampa en exámenes es bastante grande; de 40 a 95% de los estudiantes univer-
operante en la cual una respuesta sitarios encuestados informaron haber hecho trampa en alguna ocasión (Burnett, Rudolph
deseada se enseña por medio del y Clifford, 1998; Davis y Ludvigson, 1995; Jensen, Arnett, Feldman y Cauffman, 2002); por
reforzamiento de las respuestas consiguiente, el hacer trampa es una seria preocupación en muchos campus universitarios
sucesivas que más se asemejan a
(McCabe, Trevino y Butterfield, 2001; Whitley y Keith-Spiegel, 2002).
la respuesta meta
Psico-detective
¿Puede un reforzador positivo alentar la conducta falta de ética? Considere el problema
de hacer trampa. A los niños se les enseña que hacer trampa está mal, pero esta conducta
persiste en la mayoría de los segmentos de nuestra sociedad. ¿Por qué? Analice por al-
gunos minutos la conducta de hacer trampa en términos del condicionamiento clásico.
Asegúrese de escribir la respuesta meta y los reforzadores.
Psico-detective
Suponga que observa el registro acumulativo de una rata que está siendo entrenada en
una caja de Skinner. Mientras sostiene la rata en su mano, observa el registro y nota algo
interesante. A lo largo de varios días, el registro muestra una línea recta horizontal.
¿Qué le pasó a la respuesta meta de la rata?
Esta rata ha dejado de realizar la conducta meta. El hecho de que la esté sosteniendo
significa que el animal aún está vivo. El investigador coloca a esta rata en un programa que
produce la reducción y eliminación de la respuesta (extinción).
Un patrón o plan preestablecido para liberar el reforzamiento, un programa de re-
forzamiento, es un importante factor determinante de la conducta (Mazur, 2006; Shull y
Lawrence, 1998). Una vez que la respuesta meta ha sido modelada, el investigador puede
hacer que el reforzador se libere de acuerdo con un programa específico. La mayoría de los
planes o programas para liberar reforzadores recaen en dos categorías principales: continuo
e intermitente (parcial). Esto significa que el reforzador siempre seguirá a la conducta meta
o algunas veces seguirá a la conducta meta.
registro acumulativo
Resultado de una serie de prue- Reforzamiento continuo. El programa básico es el de reforzamiento continuo, en el
bas de condicionamiento ope- cual se le proporciona al participante un reforzador después de que ocurre la respuesta
rante, mostrado como un índice meta. Por ejemplo, una rata en una caja de Skinner recibe una bolita de alimento cada vez
de respuesta que oprime la barra; una máquina de refrescos entrega una bebida fría cada vez que recibe
programa de reforzamiento dinero. Un programa de reforzamiento continuo produce un índice de respuesta alto. No
Patrón preestablecido para liberar obstante, una vez que el reforzador pierde su efectividad, el índice de respuesta baja rápida-
el reforzador mente. Una bolita de alimento refuerza la respuesta de una rata hambrienta, pero no es
efectiva después de que ha comido muchas.
reforzamiento continuo
Reforzamiento que sigue a todas Reforzamiento intermitente (parcial). En programas que no implican el uso del re-
las respuestas meta forzamiento continuo, algunas respuestas no se refuerzan. El término reforzamiento in-
termitente (o parcial) describe estos patrones interrumpidos de entrega de reforzamiento.
reforzamiento intermitente
Existen dos tipos principales de programas intermitentes: de proporción y de intervalo.
(o parcial)
Reforzador que no sigue a todas Programas de razón. Cuando se usa el programa de razón, la cantidad de respuestas
las respuestas meta determina si el participante recibe el reforzamiento. En algunos casos la cantidad exacta de
respuestas que se deben realizar para recibir un reforzador es específica. Por ejemplo, tal
programa de razón
Programa de reforzamiento en el vez se requiera que una paloma picotee un disco (llave) cinco veces antes de que el grano
cual el reforzador es la cantidad (un reforzador positivo) sea liberado. Cuando la cantidad de respuestas requeridas para pro-
de respuestas, la cual se esta- ducir un reforzador se especifica, se conoce como un programa de razón fija (RF). Pedir que
blece (programa de RF) o varía de una paloma picotee cinco veces para recibir el reforzamiento está diseñado como un pro-
un reforzador a otro (programa grama de razón fija 5 (RF-5). Podemos pensar en un programa de reforzamiento continuo
de RV) como un programa de razón fija 1 (RF-1).