Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
1
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
2
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
3
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Figura 8.1 Porcentaje de intervalos en los cuales el estudio ocurrió, en un participante. En las
condiciones de línea base, la cantidad de estudio fue ignorada. En las condiciones de refuerzo, el
estudio fue reforzado de manera contingente por el profesor. Extraído de “Effects of teacher attention
on study behavior”, por R. V. Hall, D. Lund y D. Jackson (1968), Journal of Applied Behavior
Analysis, I, p.3. Derechos de autor (1968) de la “Society for the Experimental Analysis of Behavior,
Inc”. Reimpreso con permiso.
Nota del traductor. La Figura 8.1 es un gráfico que en el eje horizontal muestra las distintas
sesiones del experimento, siendo estas Línea Base, Refuerzo 1, Inversión, Refuerzo 2, y un Chequeo
Posterior; mientras que en el eje vertical está el porcentaje de conducta de estudio desde 0% hasta
100%. Durante la primera condición, la de Línea Base, el porcentaje de conducta de estudio oscila
entre un 10% y un 40%. Durante la condición posterior de Refuerzo 1 hay un aumento en el
porcentaje de conducta de estudio, de tal manera que el porcentaje de conducta de estudio oscila entre
el 50% y el 90%. En la siguiente condición, la de Inversión, se produce una disminución, que lleva a
que el porcentaje de conducta de estudio oscile entre el 60% y el 40%. Luego, durante la fase de
Refuerzo 2, nuevamente vuelve a subir el porcentaje de conducta de estudio, partiendo desde el 30%
y manteniéndose posteriormente entre el 90% y el 60%. Un chequeo posterior donde se remueven las
claves tiene datos que continúan oscilando en los siguientes cinco ensayos alrededor del 70% y el
90%.
4
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Resumen
El análisis del comportamiento tiene varias características que lo hacen diferente de
otras áreas de la psicología. Sus objetivos, tales como la predicción y el control de la
conducta, separan sus estrategias de investigación de las estrategias hipotético-deductivas
de otras áreas de la psicología. Su tema de estudio es el comportamiento en sí mismo, no
como un síntoma de un constructo interno. Metodológicamente, el análisis de la conducta es
la búsqueda de relaciones funcionales entre el ambiente y la conducta, no las relaciones
entre constructos hipotéticos y conductas evidentes. Por último, el análisis de la conducta
asume que la conducta está sujeta a leyes y, por lo tanto, abierta a la inspección científica.
Reforzamiento y castigo
Hay cuatro tipos de consecuencias en el condicionamiento operante. Estas
consecuencias pueden ser puestas en dos categorías distintas: reforzamiento y castigo.
Reforzamiento
El reforzamiento se refiere a un procedimiento que incrementa la tasa de respuesta.
Hay dos tipos de reforzamiento: positivo y negativo.
Reforzamiento positivo. Este es, quizás, el procedimiento de condicionamiento
operante más familiar, dado que entrega lo que comúnmente se llama una “recompensa”.
Para que un estímulo recompensante sea llamado “reforzador”, sin embargo, debe venir
después de una conducta y aumentar la frecuencia de esa conducta (Miller, 2006). Si ambos
requisitos no se cumplen, el estímulo no es un refuerzo positivo. Una rata, por ejemplo,
puede recibir un pellet de comida cada vez que presiona una palanca, y la conducta de
presión de palanca puede aumentar. Se dice entonces que el pellet de comida sirve como un
refuerzo positivo porque es posterior a una conducta e incrementa la tasa de esa conducta.
En instancias aplicadas, los elogios pueden ser usados como un refuerzo positivo
para aumentar la frecuencia de conductas de interés en individuos con capacidades
diferentes (e.g., Dozier, Iwata, Thomason-Sassi, Worsdell y Willson, 2012). En el mundo
real, los refuerzos positivos pueden ser el dinero, la atención social, y la oportunidad de
realizar ciertas actividades preferidas.
5
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Castigo
El término castigo se refiere a un procedimiento que disminuye la frecuencia de una
respuesta. Como en el reforzamiento, hay dos tipos de castigo: positivo y negativo.
Castigo positivo. Para que un estímulo califique como castigo positivo, debe ser
entregado después de una conducta y disminuir la probabilidad de esa conducta (Miller,
2006). Una rata, por ejemplo, puede recibir una descarga eléctrica después de cada presión
de palanca. Si la tasa de presión de palanca disminuye, la descarga eléctrica es un castigo
positivo para la presión de palanca. En instancia aplicadas, el castigo ha sido usado para
disminuir las conductas autolesivas. En un ejemplo clásico, Risley (1968) aplicó una leve
descarga eléctrica a una niña con autismo cuando subía a objetos altos, tales como un
6
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
librero o una silla. Como resultado, la tasa de escalamiento peligroso disminuyó a cero,
mientras que aumentó la tasa de comportamientos apropiados, como el contacto visual con
el experimentador.
El castigo positivo es fácilmente observable en el mundo real. Por ejemplo, una
persona se puede quemar si pone su mano muy cerca de una estufa caliente. Como
resultado, es menos probable que la persona ponga su mano cerca de una estufa en el futuro.
Castigo negativo. E l castigo negativo se refiere a la remoción contingente de un
estímulo que disminuye la tasa de una respuesta. Para que un estímulo califique como un
castigo negativo, la remoción del estímulo debe ser después de una conducta y esa
remoción debe disminuir la probabilidad de esa conducta (Miller, 2006). Por ejemplo, una
rata privada de comida puede recibir acceso libre a la comida, pero una presión de palanca
puede remover la comida. Si la remoción contingente de la comida disminuye la tasa de
presión de palanca, la remoción de comida sirve como un castigo negativo.
Una aplicación común del castigo negativo está en los procedimientos de tiempo
fuera (e.g., Wolf, Risley y Mees, 1964). Un procedimiento de tiempo fuera involucra
remover a un individuo de un ambiente reforzante hacia uno menos reforzante después de
una conducta inapropiada. En un ejemplo reciente, Donaldson y Vollmer (2011)
investigaron el uso del tiempo fuera en los comportamientos inapropiados de niños con
trastornos del desarrollo en el patio de juegos y en la sala de clases cuando los niños
mostraban conductas inapropiadas (e.g., saltar de los columpios o tirar materiales
académicos), eran puestos en un tiempo fuera por cuatro minutos. La tasa de las respuestas
inapropiadas disminuyó cuando la contingencia de tiempo fuera se implementaba, y
aumentaron cuando no. Ejemplos de castigos negativos pueden incluir las multas de tráfico
y los intereses por pagos tardíos con tarjetas de crédito.
Moldeamiento
El procedimiento de moldeamiento por aproximaciones sucesivas es usado tanto en
las investigaciones básicas como aplicadas para crear una nueva conducta (Skinner, 1951).
El procedimiento se empieza definiendo qué conducta se quiere entrenar, la “conducta de
interés”. Por ejemplo, en una investigación básica de laboratorio, presionar una palanca
podría ser definida como cualquier fuerza ejercida en la palanca que active un mini
interruptor. Una definición incluso más precisa podría especificar la topografía de la
respuesta. Por ejemplo, la presión de una palanca podría requerir que la rata empuje la
palanca con 0.25 newton de fuerza con ambas patas simultáneamente. La definición de una
conducta de interés puede ser tan específica, como se requiera, dependiendo de la
naturaleza de la respuesta y la pregunta de investigación (véase Johnston y Pennypacker,
2008, para una discusión comprehensiva de este problema). Luego, se identifican
aproximaciones a la respuesta de interés y se refuerzan sistemáticamente. Por ejemplo, la
proximidad a la palanca podría ser la primera aproximación que es reforzada. Una vez que
esta conducta ocurre con cierta frecuencia, la siguiente aproximación reforzada podría ser
7
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
que la rata se levante. La siguiente aproximación podría involucrar tocar la palanca con su
pata. Este proceso continúa hasta que la conducta de interés es realizada.
Las técnicas de moldeamiento son usadas ampliamente en instancias aplicadas. Por
ejemplo, el moldeamiento ha sido usado para entrenar muchas conductas socialmente
importantes tales como un apropiado uso del inodoro (e.g., Smeets, Lancioni, Ball, y Oliva,
1985), respuestas verbales (e.g., Kelley, Shillingsburg, Castro, Addison, y LaRue, 2007), y
habilidades académicas (Athens, Vollmer, y St. Peter Pipkin, 2007).
Los reforzadores deben ser inmediatamente después de la respuesta deseada para
que el moldeamiento sea efectivo. Como resultado, se pueden usar reforzadores
condicionados para disminuir la demora entre la conducta y la entrega de un reforzador
primario. Los reforzadores condicionados son estímulos previamente neutros que adquieren
la habilidad de reforzar después de ser pareados con un reforzador primario (véase Bell y
McDevitt, en este volumen). El uso de reforzadores condicionados es común en el
entrenamiento animal. Por ejemplo, clickers disponibles en el comercio son usados para
moldear las conductas de una amplia variedad de mascotas, incluyendo perros, gatos y
caballos (e.g., Pryor, 2001; véase Pryor y Ramírez, en este volumen). En instancias
aplicadas con personas, los reforzadores sociales, tales como decir “¡buen trabajo!” podrían
servir como un reforzador condicionado efectivo.
Programas de reforzamiento
Los programas de reforzamiento (véase Nota 2) son reglas que especifican cuáles
respuestas serán seguidas por un reforzador. Aun cuando Skinner condujo investigaciones
iniciales en los años 30 (e.g., Skinner, 1938), los programas de reforzamiento no fueron
ampliamente investigados hasta Ferster y Skinner (1957). Ferster y Skinner mostraron que
los programas de reforzamiento producen patrones predecibles y característicos en una
respuesta operante. Usaron un registro acumulativo para medir momento-a-momento los
cambios en la conducta de palomas y ratas. Un registro acumulativo presenta el número
acumulativo de respuestas en el eje Y como una función del tiempo en el eje X (véase
Figura 8.2). Una alta tasa de respuestas se indica en el registro acumulativo como una
pendiente empinada, mientras que la ausencia de respuesta se indica con una línea
horizontal. La entrega de los reforzadores se representa con una línea vertical.
Los reforzadores pueden ser entregados en un programa de reforzamiento continuo
(PRC) o parcial (PRP). Un PRC entrega un reforzador después de cada respuesta. Un PRP
no entrega un reforzador después de cada respuesta. Un PRP entrega reforzadores después
de la emisión de un cierto número de respuestas (programas de razón) o de acuerdo con el
paso del tiempo (programas de intervalo). Aquí se describirán cuatro programas de
reforzamiento.
8
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Figura 8.2. La respuesta individual de una paloma en un programa de razón fija de 120 (A), un
programa de razón variable de 360(B), un programa de IF de 4 minutos (C), y un programa de
intervalo variable de 2 minutos. Extraído de “Schedules of reinforcement” por C.B. Ferster y B.F.
Skinner (1975), pp. 51, 159, 332 y 393. Derechos de autor (1997) de la Fundación B.F. Skinner.
Reimpreso con permiso.
Programas de razón
Programas de razón fija. Durante los programas de Razón Fija (RF) los
reforzadores son entregados después de la emisión de un cierto número de respuestas
(Ferster y Skinner, 1957). El número de respuestas requeridas para el reforzamiento se usa
para describir el programa. Un programa de reforzamiento continuo es técnicamente un
programa RF1 porque cada respuesta es seguida de un reforzador. Por otro lado, un
programa RF15 requiere 15 respuestas emitidas por cada reforzador entregado. La tasa de
reforzamiento, por lo tanto, depende de qué tan rápido responde el organismo, y la
probabilidad de reforzamiento aumenta con cada respuesta (Mazur, 1982).
Los programas de razón fija producen un patrón característico de respuestas en una
variedad de especies con muchos tipos de reforzadores, incluyendo fichas y dinero (Mazur,
1983; Tatham, Wanchisen y Hineline, 1993). Una pausa post-reforzamiento (PPR) ocurre
inmediatamente después de un reforzamiento, y la fuerza de la PPR depende de la exigencia
del programa. Por ejemplo, programas de RF con una exigencia de razón mayor, producirán
mayores PPRs que programas de RF con un requisito de razón menor (Powell, 1968). Una
rápida emisión de respuestas ocurre luego de la PPR. Este clásico patrón de descanso-y-
emisión es conocido como un “escalón” en el registro acumulativo (véase Figura 8.2A). En
el mundo real, un programa de RF podría involucrar a una persona recibiendo un pago
(reforzador) después de haber producido un cierto número de cosas (respuestas; véase Nota
1).
Programas de razón variable. Durante los programas de razón variable (RV), la
respuesta es reforzada después de la emisión de un número de respuestas determinadas
aleatoriamente (Ferster y Skinner, 1957). El número promedio de respuestas requeridas para
producir el reforzamiento es usado para describir el programa. Por ejemplo, un programa
9
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
RV15 indica que la cantidad promedio de respuestas requeridas para producir reforzamiento
es de 15. Sin embargo, el requisito del programa podría variar entre valores extremos de
modo que, se podría exigir 29 respuestas durante un intervalo entre reforzamientos, y se
podría exigir solo una respuesta al siguiente intervalo.
La tasa de respuestas generadas por un programa de RV es generalmente más rápida
que con programas de RF con similares exigencias de respuesta. No se observan en general
PPRs en un programa de RV, y las tasas de respuestas, por lo general, son relativamente
constantes en el tiempo (véase Figura 8.2B).
Un posible ejemplo de un programa de RV en el mundo real es pescar. La
probabilidad de capturar un pez (reforzador) depende (hasta cierto punto) del número de
veces que se retira el sedal (respuestas). Sin embargo, el número de intentos necesarios para
capturar cada pez puede variar de un intento exitoso al siguiente.
Programas de intervalo
Programas de intervalo fijo. Durante los programas de Intervalo Fijo (IF), la
primera respuesta emitida después de una cantidad determinada de tiempo es seguida de un
reforzador (Ferster y Skinner, 1957). Por ejemplo, en un programa de IF60 se refuerza la
primera respuesta emitida después de 60 segundos usualmente medidos desde la obtención
del reforzador anterior.
Los programas de IF producen un patrón característico de respuestas en una
variedad de especies con reforzadores primarios y condicionados (Barnes y Keenan, 1993;
Dews, 1978). El patrón es un PPR seguido de una tasa lenta de respuestas al inicio del
intervalo, y una alta tasa de respuestas hacia el fin de este (Ferster y Skinner, 1957; Innis,
Mitchell y Staddon, 1993). En un registro acumulativo, este característico patrón es
conocido como “festoneo” (véase Figura 8.2C).
Asumiendo que uno tiene un cartero confiable, revisar el buzón y encontrar un
correo puede ser interpretado como un programa de IF. La entrega del correo ocurre
aproximadamente a la misma hora cada día, y se ejecuta solo una respuesta para obtener el
correo.
Programas de intervalo variable. Durante los programas de intervalo variable (IV),
la respuesta es reforzada después de una cantidad de tiempo determinada al azar,
usualmente medida desde el último reforzador (Ferster y Skinner, 1957). El promedio de
estos intervalos de tiempo es usado para describir el programa. Un programa de IV60, por
ejemplo, refuerza la respuesta en promedio cada minuto, a pesar de que los intervalos entre
reforzamiento diferirán de una ocasión a la siguiente.
La tasa de respuestas producidas por un programa de IV son, por lo general,
relativamente constantes y moderadas (Ferster y Skinner, 1957). La PPR comúnmente
observada en programas de IF y RF no aparecen en programas de IV, excepto en tasas
inusualmente bajas de reforzamiento (e.g., Baum, 1993). El programa de IV es, quizás, uno
de los más usados comúnmente en investigación operante porque produce desempeños
10
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
estables y predecibles (véase Figura 8.2D). Si se usa una cantidad variable de agua o una
fuente de calor variable, cada vez que se hierve agua, la respuesta de mirar para ver si el
agua está hirviendo podría ser reforzada al ver el agua hirviendo en un programa de IV.
En general, los programas de IV son mejores opciones que los programas de RV
cuando se usan programas para medir el efecto de alguna otra variable, como las drogas.
Como se mencionó anteriormente, la tasa de reforzamientos es proporcional a la tasa de
respuestas en un programa de razón. Por lo tanto, si una droga cambia la tasa de respuestas
en un programa de razón, también cambiará la tasa de reforzamientos obtenida. Entonces
será imposible determinar cuánta de la variación de la tasa de respuestas fue producto de la
administración de la droga, y cuánta fue producida por el cambio en la tasa del
reforzamiento obtenido. En cambio, la cantidad de reforzamiento obtenido en un programa
de intervalo es relativamente constante en un amplio rango de tasas de respuesta. Como
resultado, los cambios observados en la tasa de respuestas en los programas de IV pueden
ser claramente atribuidos a la administración de la droga, más que a los cambios en la
cantidad de reforzamiento obtenido.
Programas Complejos
Los programas simples (véase Nota 3) discutidos anteriormente son los comúnmente
usados en el laboratorio, pero para investigar conductas complejas, como la de elección
(Baum, 1974; véase Mazur y Fantino, en este volumen), momentum conductual (véase
Craig, Nevin y Odum, en este volumen; Nevin y Grace, 2000) y contraste conductual (e.g.,
Reynolds, 1961), se necesitan programas complejos de reforzamiento. Los programas
complejos involucran el uso de dos o más programas simples que operan concurrentemente
o en sucesión. Cada programa simple se considera un componente del programa complejo.
Aunque Ferster y Skinner (1957) describieron seis programas complejos de reforzamiento,
solo dos programas serán discutidos aquí.
Programas concurrentes. Ferster y Skinner (1957) estudiaron la conducta de
elección entrenando palomas con dos o más operandos asociados a programas
independientes de reforzamiento. Los dos operandos estaban disponibles al mismo tiempo.
Este procedimiento de programa concurrente permite a un animal distribuir sus respuestas
entre dos o más alternativas. Los programas concurrentes de reforzamiento han demostrado
ser útiles para la formulación de teorías de elección, como la ley de igualación de
Herrnstein (1961, 1970; véase Mazur y Fantino, en este volumen). La ley de igualación es
una descripción cuantitativa que indica que tasa relativa de respuestas a dos o más
alternativas tienden a coincidir (igualar) con la tasa relativa de reforzamientos obtenidas de
aquellas alternativas.
Programas múltiples. Los programas múltiples de reforzamiento involucran la
presentación sucesiva de dos o más programas simples de reforzamiento con estímulos
discriminativos claramente diferentes presentes durante cada programa simple. Cada
programa simple constituye un componente del programa múltiple y aspectos cualitativos
11
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
12
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
adultos con trastornos del desarrollo. Luego, se midió la preferencia de cada participante para
cada estímulo requiriendo 10 elecciones entre esos estímulos y otros estímulos. Los
resultados indicaron que la tasa de respuestas estuvo altamente correlacionada con la
preferencia de cada participante por los artículos. Es decir, se observó una mayor tasa de
respuestas para los estímulos que fueron más preferidos que para aquellos que fueron menos
preferidos.
Contingencias
Una contingencia de reforzamiento se refiere a la diferencia entre la probabilidad de
que una conducta sea seguida por un refuerzo, y la probabilidad de que el refuerzo sea
entregado en ausencia de esa conducta (Catania, 2007). Para que una consecuencia sea
efectiva la primera probabilidad tiene que ser más alta que la segunda probabilidad.
En una demostración clásica del efecto de las contingencias de reforzamiento,
Hammond (1980) expuso ratas a dos condiciones. En la primera condición, la probabilidad de
recibir agua luego de una presión de palanca era de 0.05 y la probabilidad de recibir un
reforzador en ausencia de la presión de palanca era de 0 (contingencia positiva). En la
segunda condición, la primera probabilidad permaneció en 0.05, pero la probabilidad de
entrega del reforzamiento en ausencia de la presión de palanca fue aumentada a 0.05
(contingencia cero). Los resultados de Hammond mostraron que cuando la probabilidad de
recibir un refuerzo era mayor para presionar una palanca que cuando no había que presionar
palanca, se mantuvieron mayores tasas de respuesta en comparación a cuando las dos
probabilidades eran la misma (Véase Figura 8.3).
13
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Figura 8.3 Las respuestas por hora en función de cada condición. En la primera condición, la
probabilidad de recibir el reforzador de agua luego de presionar una palanca fue de 0.05, y la
probabilidad de recibir reforzamiento en la ausencia de presión de palanca fue de 0.0. En la segunda
condición, la primera probabilidad fue la misma, pero la probabilidad de entregar el reforzamiento en
ausencia de la presión de palanca se cambió a 0.05. Extraído de “The effect of contingency upon the
appetitive conditioning of free-operant behavior”, de L. Hammond (1980), Journal of the
Experimental Analysis of Behavior, 34, p. 300. Derechos de autor (1980) de la “Society for the
Experimental Analysis of Behavior”, Inc. Reimpreso con permiso.
Consecuencias demoradas
En general, la efectividad de un reforzador decrece en función de la demora entre la
respuesta y la entrega del reforzador (Mazur, 1987). Este fenómeno es conocido como
descuento por demora y es un área rica de investigación en el análisis del comportamiento
(véase Green, Myerson, y Vanderveldt, en este volumen). Los individuos que pueden
desarrollar problemas de comportamiento, como problemas con las apuestas (Dixon,
Marley, y Jacobs, 2003) y abuso de sustancias (Carroll, Anker, Mach, Newman, y Perry,
2010) pueden mostrar un descuento por demora del reforzador bastante empinado.
El descuento por demora también se usa para estudiar problemas de autocontrol. El
autocontrol puede ser definido como una preferencia por los reforzadores grandes, pero
demorados en comparación a reforzadores inmediatos y pequeños (Logue, 1995). La
impulsividad se puede definir como la elección del reforzador inmediato y pequeño por
sobre el demorado, pero más grande. El tamaño relativo de los reforzadores es importante
en el desarrollo del autocontrol. Por ejemplo, incrementar el tamaño relativo del reforzador
demorado o disminuir el tamaño del reforzador inmediato aumenta el autocontrol (Logue,
1995, 2000).
Operaciones motivantes
La efectividad de los refuerzos puede ser alterada por operaciones motivantes. Una
operación motivante es “un evento ambiental, operación, o condición de estímulos que
afecta momentáneamente al organismo al alterar (a) la efectividad del refuerzo de otros
eventos y (b) la frecuencia de la ocurrencia de esa parte del repertorio del organismo
relevante a los eventos como consecuencias” (Michael, 1993, p. 192). Establecer
operaciones incrementa, y abolir operaciones decrece, la efectividad de una consecuencia.
Quizás el procedimiento más común para incrementar la efectividad de un
reforzador es la privación. Esto es, privar a un organismo de un estímulo (i.e., comida)
14
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Extinción
La extinción es un procedimiento usado para disminuir el control operante. Si una
respuesta fue reforzada previamente, entonces la extinción disminuirá su frecuencia. Si una
respuesta fue previamente castigada, entonces la extinción aumentará su frecuencia. La
extinción puede producirse de dos formas. Primero, se puede detener la entrega de la
consecuencia (i.e., reforzadores y castigadores). Por ejemplo, Skinner (1938) reforzó con
comida 100 presiones de palanca a ratas. Luego, discontinuo la entrega de comida
(extinción). La presión de palanca era bastante rápida antes de la extinción, pero luego
decreció hasta 0 después de una hora de extinción (véase Figura 8.4). En segundo lugar, las
consecuencias (i.e., reforzadores y castigadores) pueden ser presentadas
independientemente de la conducta. La condición de contingencia cero de Hammond (1980)
descrita anteriormente es un ejemplo de este procedimiento (véase Figura 8.3).
15
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Figura 8.4 Presiones de palanca acumulativas de cuatro ratas durante la extinción en función del
tiempo. Las ratas presionan palanca en mayor velocidad al comienzo de la extinción, pasado el
tiempo las ratas comienzan a responder en menor medida por lo que las respuestas totales dejan de
aumentar y la curva se vuelve plana. Extraído de “The behavior of organisms: An experimental
analysis,”,” de B. F. Skinner (1938), p. 75. Derechos de autor (1991) de la fundación B. F. Skinner.
Reimpreso con permiso.
16
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Control de estímulos
Estímulos en el ambiente pueden llegar a controlar el comportamiento operante.
Cuando esto ocurre, se le denomina control de estímulos. Existen dos tipos básicos de
control de estímulos: generalización y discriminación.
Generalización. La generalización ocurre cuando una respuesta que ha sido
reforzada en presencia de un estímulo también ocurre en la presencia de otro estímulo
similar. En un experimento clásico, Guttman y Kalish (1956) entrenaron a palomas para que
picotearan una clave para obtener comida sólo en la presencia de una clave de luz de color
de 530, 550, 580, o 600 nanómetros. Después se testeó a las palomas con múltiples
longitudes de onda. Un examen de la tasa de respuestas en función de la longitud de onda
reveló que la tasa más alta de respuestas ocurrió en la presencia del estímulo de
entrenamiento. La tasa de respuestas a los nuevos estímulos disminuyó como una función
normal de la distancia en nanómetros entre los nuevos estímulos y el de entrenamiento.
Discriminación. La discriminación ocurre cuando una conducta produce
reforzadores en la presencia de algunos estímulos, pero no en la presencia de otros. La
conducta ocurrirá en la presencia del estímulo que señalizó la disponibilidad del reforzador
y no en la presencia de los otros estímulos. Los estímulos que están presentes cuando la
conducta es reforzada se abrevian ED; los estímulos que están presentes cuando el hecho de
realizar la conducta no tiene consecuencias son E-deltas (abreviados E∆). Por ejemplo,
hacer parar un taxi que ya está ocupado es poco efectivo y, por lo tanto, la mayoría de los
17
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
taxistas tienen algún letrero que se puede iluminar para indicar que está vacío. El letrero
iluminado del taxi es un ED para la respuesta de hacer parar ese taxi; un letrero no
iluminado es un E∆ para hacer parar ese taxi. Las personas que están acostumbradas a
transportarse en taxis sólo hacen parar un taxi cuando tiene el letrero iluminado. La
conducta de hacer parar un taxi se dice que esté bajo el control de estímulo del letrero
iluminado.
Los estímulos discriminativos también pueden indicar que realizar una conducta
producirá castigo. En este caso, la conducta disminuirá en frecuencia en la presencia de
estímulos que señalan castigadores, y no en la presencia de estímulos que no señalan
castigadores. Por ejemplo, los niños pueden aprender rápidamente que muchas de sus
conductas alegres serán castigadas cuando sus madres fruncen el ceño, pero no cuando
sonríen. Como resultado, van a restringir su conducta en la presencia del ceño fruncido,
pero no en presencia de la sonrisa.
Aprender a discriminar puede afectar el gradiente de generalización de estímulos
cercanos al ED. Por ejemplo, Hanson (1959) entrenó palomas con una luz de longitud de
onda de 550 nanómetros (ED). Luego, algunos sujetos recibieron entrenamiento con luces
de 550, 560, 570 y 590 nanómetros como el E∆. Todos los sujetos mostraron la
generalización de estímulos, pero el nivel más alto de respuesta no ocurrió en la presencia
de ED. En cambio, el peak d e respuestas ocurrió con un estímulo que era similar al ED, pero
en la dirección contraria al E∆. Esto es, las palomas entrenadas con un E∆ de mayor
longitud de onda exhibieron respuestas significativamente mayores a la luz de 540
nanómetros en comparación a las palomas entrenadas solo con el ED de 550 nanómetros.
Este fenómeno es conocido como un “cambio en el ´peak d e respuestas”.
Estímulos relativamente complejos pueden servir como estímulos discriminativos
efectivos incluso en animales no humanos, como palomas. Por ejemplo, Watanabe,
Sakamoto, y Wakita (1995) usaron pinturas de Monet y Picasso como el ED y E∆
(contrabalanceados entre los sujetos). El picoteo de las palomas no solo cayó bajo el control
de los estímulos, sino que también exhibió una impresionante generalización de estímulos.
Los sujetos entrenados para responder a las pinturas de Monet picotearon cuando se
presentaron otras pinturas de Monet (no familiares para los sujetos) y a pinturas de otros
impresionistas (Cézanne y Renoir). Los sujetos entrenados con Picasso como ED
respondieron frente a nuevas pinturas de Picasso y a pinturas de otros cubistas (Matisse y
Braque).
Los estados internos producidos por las drogas también pueden servir como
estímulos discriminativos. En un experimento, unas ratas recibieron inyecciones de delta9-
THC (i.e., el ingrediente activo de la marihuana) y nicotina como ED y E∆
(contrabalanceado entre los sujetos) en una tarea de reforzamiento con comida. Los sujetos
discriminaron entre las drogas, evidenciado como una respuesta más rápida, posterior a
inyecciones de la droga ED en relación con la droga E∆ (Troisi, LeMay, y Järbe, 2010).
Debido a que los experimentadores inyectaron ambas drogas de la misma forma, los
18
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
animales tienen que haber basado su discriminación en los efectos subjetivos producidos por
esas drogas, indicando que podrían discriminar entre estos estados subjetivos.
Tanto la generalización y la discriminación pueden verse afectadas por la saliencia
del ED. Un claro determinante de la saliencia de los estímulos es su intensidad. Con todas
las demás condiciones iguales, un ruido fuerte o una luz brillante son más salientes que un
ruido suave y una luz tenue. La saliencia de los estímulos también es afectada por la
presencia de otros estímulos. Van Houten y Rudolph (1972), entrenaron palomas a picotear
en total oscuridad solo cuando se presentaba un soplido de 30 millas. Los sujetos
aprendieron rápidamente la tarea y mostraron generalización a soplidos de velocidades
similares (véase Figura 8.5). Las palomas que aprendieron la tarea con una luz presente en
la caja operante fallaron en exhibir generalización de estímulos y aprendieron más lento una
discriminación entre 10 millas y 20 millas, en comparación a las aves entrenadas en la
oscuridad. Esto significa que la presencia de la luz redujo el control por parte del soplido.
Con mayor entrenamiento, sin embargo, los sujetos aprendieron a responder solo a la
presencia del soplido que señalaba la contingencia conducta-reforzador.
Nota del traductor. Se presentan 3 gráficos separados uno para cada tipo de estímulo presentado
(soplido + clave lumínica, soplido + luz hogar, soplido solo), se observa que la discriminación de las
ratas entrenadas en la oscuridad es mejor que la de las ratas entrenadas con el compuesto de luz y
19
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
soplido. Además, se observa que entre más distinta es la velocidad del soplido con el que se está
testeando, con relación al soplido con el que fue entrenado, menor es la respuesta que el sujeto
ejecuta.
20
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
21
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
conducen al sujeto a través de todos los eslabones de la cadena hasta que la ejecución de la
conducta final produce un reforzamiento primario.
Tanto el encadenamiento hacia adelante como hacia atrás pueden resultar en un
desempeño superior, en comparación al aprendizaje de todos los pasos de una vez. Por
ejemplo, Walls et al. (1981) enseñaron a adultos con trastornos del desarrollo a armar un
carburador, un freno de bicicleta, y una moledora de carne. Cuando a los participantes se les
enseñaba a armar estos objetos usando el método de la tarea completa, su proporción de
respuestas incorrectas fue más del doble, en comparación a cuando aprendieron la tarea con
un encadenamiento hacia adelante o hacia atrás (Walls et al., 1981).
El encadenamiento también es efectivo con sujetos no humanos. Por ejemplo,
Pisacreta (1982), entrenó palomas para ejecutar una secuencia de cuatro picoteos en unas
teclas usando encadenamiento hacia adelante o hacia atrás. Los sujetos entrenados mediante
encadenamiento hacia atrás tuvieron la mayor cantidad de errores en el eslabón inicial de la
cadena, mientras los sujetos entrenados con encadenamiento hacia adelante tendieron a
cometer errores en el eslabón final. La proporción general de picoteos incorrectos fue, sin
embargo, similar en ambos grupos.
22
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Aprendizaje social
Imitación/aprendizaje E-R
Mucho de lo que los humanos aprenden viene de la observación de otros en vez de
la exposición directa a contingencias de reforzamiento. Una forma de aprendizaje
observacional es la imitación, que ocurre cuando la conducta de un sujeto se aproxima a las
acciones de un modelo. El concepto de imitación se reserva generalmente para conductas
dirigidas a meta en las cuales las asociaciones conducta-consecuencia se adquieren por
observación. Otro término, facilitación social, describe la conducta más simple o refleja,
tales como bostezar o aplaudir. Cuando la observación de una conducta reforzada aumenta
la probabilidad de que un observador ejecute la conducta, el procedimiento se denomina
usualmente reforzamiento vicario.
En un estudio de imitación, niños de tres años observaron a un modelo usar una
herramienta para sacar un juguete de un tubo (condición experimental) u observaron a un
modelo empujar la herramienta a través del aire sobre el tubo sin insertarla (condición
control). Los niños en la condición experimental fueron más exitosos en usar la herramienta
para sacar el juguete del tubo que aquellos de la condición de control (Horner y Whiten,
2007; Want y Harris, 2001). Algunos niños incluso se beneficiaron de observar qué no
había que hacer (castigo vicario). Es decir, aquellos que observaron un modelo demostrar
tanto el método correcto como el incorrecto para insertar la herramienta en el tubo
23
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
superaron a los niños que solo vieron el método correcto, al menos cuando la tarea no era
demasiado difícil.
Figura 8.6 Porcentajes del reforzamiento diferencial de otra conducta, RDC, y un retorno al
reforzamiento en un sujeto. La línea continua indica conductas imitativas que produjeron (o
previnieron, durante el RDC) el reforzamiento. La línea punteada representa la conducta imitativa sin
consecuencias. Extraído de “The development of imitation by reinforcing behavioral similarity to a
model”, por D. Baer, R. Peterson y J. Sherman (1967), Journal of the Experimental Analysis of
Behavior, 10, p. 413. Derechos de autor (1967) de la Society for the Experimental Analysis of
Behavior, Inc. Reimpreso con permiso.
Nota del traductor. La Figura 8.6 es un gráfico de líneas que describe las respuestas entregadas por
el sujeto número 3 del estudio de Baer et al. (1967). El eje vertical describe el porcentaje de
demostraciones imitadas por el sujeto, por lo que inicia en cero en la parte inferior, y termina arriba
en 100. El eje horizontal describe las sesiones de entrenamiento desde la sesión 15 hasta la 38. Las
sesiones de la 27 a la 32 incluyeron reforzamiento diferencial de otra conducta (RDC). La línea
continua describe las respuestas de imitación que fueron reforzadas, mientras que la línea punteada
muestra las respuestas de imitación no reforzadas. En la sesión 15 la línea punteada parte en 50%,
sube a 90% en la sesión 18, y se mantiene en ese nivel con variaciones menores hasta la sesión 27. La
línea continua muestra un patrón similar, aunque comienza en 70%. Luego de la sesión 27, se inicia
el entrenamiento de reforzamiento diferencial de otra conducta, lo que causa que ambas líneas bajen.
La línea continua baja desde aproximadamente 70% a 40%, mientras que la línea punteada tiene una
baja desde aproximadamente 30% a 10%. Cuando termina el reforzamiento diferencial, en la sesión
32, los porcentajes se recuperan para ambas líneas. La línea continua (que indica conductas
reforzadas) vuelve a niveles similares a los de las sesiones iniciales, mientras que la línea punteada
(que indica las imitaciones no reforzadas) inicia en 10%, sube a 70% en una sesión, baja a 40% en la
siguiente sesión, y luego vuelve a subir al nivel anterior.
A veces los niños imitan en ausencia de un reforzador obvio. Baer y colegas (Baer,
Peterson, y Sherman, 1967) expusieron tres niños con trastornos del desarrollo sin
habilidades imitativas a demostraciones de muchas acciones y vocalizaciones. La imitación
de varias de estas conductas (e.g., “apuntar un arma y decir Bang’”, y “caminar y sostener
un libro en la cabeza”) producía el reforzamiento de comida. La línea continua en la Figura
24
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
8.6 muestra el porcentaje de las conductas imitativas reforzadas emitidas por un niño a lo
largo de las sesiones. Otras conductas, sin embargo, (e.g., “clavarse un cuchillo de goma”, y
“colocar un sombrero sobre el caballo de juguete”) fueron modeladas, aunque nunca fueron
reforzadas. La imitación de estas acciones no reforzadas se muestra en la línea punteada en
la Figura 8.6.
A continuación, se implementó una fase de reforzamiento diferencial de otra
conducta (RDC) en la cual las acciones previamente reforzadas luego previnieron el
refuerzo. Las acciones no reforzadas anteriormente siguieron sin tener efecto. Durante esta
fase los niños cesaron de imitar ambos tipos de acciones. Finalmente, la contingencia inicial
fue restablecida, y los niños volvieron a imitar todas las acciones del modelo. Baer et al.
(1967) explicaron la imitación de conductas no reforzadas argumentando que una vez que
los niños tenían experiencia con el reforzamiento positivo por copiar la conducta de un
modelo, el mismo acto de imitar exitosamente se puede volver un reforzador condicionado.
25
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
niños aumentaron de manera dramática su imitación de expresiones faciales. Para dos de los
tres niños, la imitación se generalizó a una expresión facial que no había sido reforzada.
Este resultado es similar al reportado por Baer et al., (1967) en la Figura 8.6.
Otra prometedora intervención para niños con autismo implica entrenar la imitación
de gestos con las manos y manipulación de objetos. Los niños que recibieron Entrenamiento
de Imitación Recíproca (una técnica que incluye modelamiento, reforzamiento por imitar y
también imitación por el modelo de los actos de los niños) durante 10 semanas incrementó
tanto la imitación “elicitada” (i.e., pedida verbalmente) como la “espontánea” (i.e., ocurrida
tras instrucciones específicas) en comparación a un grupo de control aleatorio (Ingersoll,
2010).
Finalmente, se ha usado recientemente la observación e imitación de acciones
manuales para complementar la terapia física tradicional tras un derrame cerebral. Ertelt et
al., (2007), expusieron a participantes que sufrían de la disfunción de la movilidad de los
miembros superiores a videos diarios de movimientos comunes de las manos, tales como
abrir o cerrar una llave de agua, antes de que los participantes practicaran la acción por sí
mismos. Estos participantes mejoraron significativamente más, en comparación a un grupo
control que practicó las mismas acciones, pero no vieron los videos de estas acciones
previamente. Ertelt y sus colegas atribuyeron esta mejora a la activación de neuronas espejo
implicadas en la representación y ejecución de las acciones observadas.
Conclusión
El condicionamiento operante comenzó como una ciencia básica para descubrir los
principios conductuales fundamentales de los animales no humanos (e.g., Skinner, 1938). A
medida que los descubrimientos se acumulaban y principios clave, como el reforzamiento y
el castigo, eran identificados, estos fueron aplicados sistemáticamente a mejorar conductas
de importancia social (e.g., Baer et al., 1968). Debido a la generalidad de los principios
operantes, están ahora siendo aplicados en una amplia variedad de áreas, incluyendo el
entrenamiento de animales (e.g., Pryor y Ramírez, en este volumen), el tratamiento del
autismo (T. Thompson, en este volumen), crianza (Miltenberg y Crossland, en este
volumen), educación (Twyman, en este volumen), y la conducta organizacional (Abernathy
y Lattal, en este volumen), por nombrar algunos. Una potente área ha surgido del
descubrimiento de unos pocos principios simples. En un tributo adecuado al número e
importancia de estos desarrollos, B. F. Skinner fue identificado como el psicólogo más
influyente del siglo 20 (Hagbloom et al., 2002).
26
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Notas
1. Traducir un concepto de laboratorio a un ejemplo del mundo real es siempre un riesgo. Por ello,
sugerimos precaución al lector al interpretar nuestros ejemplos. Un análisis más detallado puede
mostrar que muchos de ellos están equivocados.
2. Reforzadores negativos, castigos positivos y castigos negativos también pueden ser entregados de
acuerdo con un programa. Debido a limitaciones de espacio describiremos solamente programas de
reforzamiento positivo.
3. Hay varios otros programas simples de reforzamiento usados para investigar el condicionamiento
operante. Por ejemplo, comúnmente se usan también en investigación básica y aplicada el
reforzamiento diferencial de tasa baja de respuestas, el reforzamiento diferencial de alta tasa de
respuestas, el reforzamiento diferencial de otra conducta, el reforzamiento diferencial de una
conducta alternativa, el reforzamiento diferencial de una conducta incompatible, y programas de
intervalo fijo y variable. Lamentablemente no tenemos el espacio para cubrirlos aquí. El lector
interesado puede ver Lattal (1991) para más detalles acerca de programas de reforzamiento simples y
complejos.
Referencias
Abernathy, W. B., y Lattal, D. (2014). Organizational behavior management: Past, present,
and future. In F. K. McSweeney y E. S. Murphy (Eds.), Wiley-Blackwell handbook
of operant and classical conditioning ( pp. 645–668). Oxford: Wiley-Blackwell.
Athens, E. S., Vollmer, T. R., y St. Peter Pipkin, C. C. (2007). Shaping academic task
engagement with percentile schedules. Journal of Applied Behavior Analysis, 40,
475–488.
Ayllon, T., y Michael, J. (1959). The psychiatric nurse as a behavioral engineer. Journal of
the Experimental Analysis of Behavior, 2, 3 23–334.
Baer, D., Peterson, R., y Sherman, J. (1967). The development of imitation by reinforcing
behavioral similarity to a model. Journal of the Experimental Analysis of Behavior,
10, 405–416.
Baer, D. M., Wolf, M. M., y Risley, T. R. (1968). Some current dimensions of applied
behavior analysis. Journal of Applied Behavior Analysis, 1, 91–97.
27
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Baum, W. M. (1974). On two types of deviation from the matching law: Bias and
undermatching. Journal of the Experimental Analysis of Behavior, 22, 2 31–342.
Buccino, G., Vogt, S., Ritzl, A., Fink, G. R., Zilles, K., Freund, H. J., y Rizzolatti G.
(2004). Neural circuits underlying imitation learning of hand actions: An
event-related fMRI study. Neuron, 42( 2), 323–334.
Carroll, M. E., Anker, J. J., Mach, J. L., Newman, J. L., y Perry, J. L. (2010). Delay
discounting as a predictor of drug abuse. In G. J. Madden & W. K. Bickel (Eds.),
Impulsivity: The behavioral and neurological science of discounting (pp.
243–271). Washington, DC: American Psychological Association.
Chiesa, M. (1994). Radical behaviorism: The philosophy and the science. Boston: Authors
Cooperative.
28
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Craig, A. R., Nevin, J. A., y Odum, A. L. (2014). Behavioral momentum and resistance to
change. In F. K. McSweeney & E. S. Murphy (Eds.), Wiley-Blackwell handbook of
operant and classical conditioning (pp. 249–274). Oxford: Wiley-Blackwell.
Dapretto, M., Davies, M. S., Pfeifer, J. H., Scott, A. A., Sigman, M., Bookheimer, S. Y., y
Iacoboni, M. (2006). Understanding emotions in others: Mirror neuron dysfunction
in children with autism spectrum disorders. Nature Neuroscience, 9( 1), 28–30.
DeQuinzio, J., Townsend, D., Sturmey, P., y Poulson, C. L. (2007). Generalized imitation
of facial models by children with autism. Journal of Applied Behavior Analysis,
40(4), 755–759.
Dozier, C. L., Iwata, B. A., Thomason-Sassi, J., Worsdell, A. S., y Wilson, D. M. (2012).
A comparison of two pairing procedures to establish praise as a reinforcer. Journal
of Applied Behavior Analysis, 45, 721–735.
Duker, P. C., y van Lent, C. (1991). Inducing variability in communicative gestures used
by severely retarded individuals. Journal of Applied Behavior Analysis, 24,
379–386.
Ertelt, D., Small, S., Solodkin, A., Dettmers, C., McNamara, A., Binkofski, F., y Buccino,
G. (2007). Action observation has a positive impact on rehabilitation of motor
deficits after stroke. Neuroimage, 36( Suppl 2), T164–T173.Ferster, C. B., y
Skinner, B. F. (1957). Schedules of reinforcement. New York: Appleton-
Century-Crofts.
Green, L., Myerson, J., y Vanderveldt, A. (2014). Delay and probability discounting. In F.
K. McSweeney & E. S. Murphy (Eds.), Wiley-Blackwell handbook of operant and
classical conditioning (pp. 307–337). Oxford: Wiley-Blackwell.
29
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Hagbloom, S. J., Warnick, R., Warnick, J., Jones, V., Yarbrough, G., Russell, T.,
Brorecky, C., McGahhey, R., Powell, J., Beavers, J., y Monte, E. (2002). The most
eminent psychologists of the twentieth century. Review of General Psychology, 6,
139–152.
Hall, R. V., Lund, D., y Jackson, D. (1968). Effects of teacher attention on study behavior.
Journal of Applied Behavior Analysis, 1, 1–12.
Hammond, L. (1980). The effect of contingency upon the appetitive conditioning of free
operant behavior. Journal of the Experimental Analysis of Behavior, 34, 297–304.
Heiser, M., Iacoboni, M., Maeda, F., Marcus J., y Mazziotta J. C. (2003). The essential
role of Broca’s area in imitation. European Journal of Neuroscience, 17(5),
1123–1128.
Hall. Hobson, R., y Lee, A. (1999). Imitation and identification in autism. Journal of Child
Psychology and Psychiatry, 40( 4), 649–659.
30
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Horner, V., y Whiten, A. (2007). Learning from others’ mistakes? Limits on understanding
a trap-tube task by young chimpanzees and children. Journal of Comparative
Psychology, 121, 12–21.
Ingersoll, B. (2010). Brief report: Pilot randomized controlled trial of reciprocal imitation
training for teaching elicited and spontaneous imitation to children with autism.
Journal of Autism and Developmental Disorders, 40(9), 1154–1160.
Kaplan-Reimer, H., Sidener, T. M., Reeve, K. F., y Sidener, D. W. (2011). Using stimulus
control procedures to teach indoor rock-climbing to children with autism.
Behavioral Interventions, 26(1), 1–22.
Kazdin, A. E. (2011). Single-case research designs: Methods for clinical and applied
settings (2nd ed.). New York: Oxford University Press.
Kelley, M. E., Shillingsburg, M. A., Castro, M. J., Addison, L. R., y LaRue Jr., R. H.
(2007). Further evaluation of emerging speech in children with developmental
disabilities: Training verbal behavior. Journal of Applied Behavior Analysis, 40,
431–445.
LaRue, R. H., Stewart, V., Piazza, C. C., Volkert, V. M., Patel, M., y Zeleny, J. (2011).
Escape as reinforcement and escape extinction in the treatment of feeding
problems. Journal of Applied Behavior Analysis, 44, 719–735.
31
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Lee, M. S. H., Yu, C. T., Martin, T. L.,y Martin, G. L. (2010). On the relation between
reinforcer efficacy and preference. Journal of Applied Behavior Analysis, 43, 995–
100.
Lelas, S., Spealman, R. D., y Rowlett, J. K. (2000). Using behavior to elucidate receptor
mechanisms: A review of the discriminative stimulus effects of benzodiazepines.
Experimental and Clinical Psychopharmacology, 8(3), 294–311.
Lerman, D. C., y Iwata, B.A. (1996). Developing a technology for the use of operant
extinction in clinical settings: An examination of the basic and applied literature.
Journal of Applied Behavior Analysis, 29, 3 45–382.
Logue, A. W. (1995). Self-control: Waiting until tomorrow for what you want today.
Englewood Cliffs, NJ: Prentice Hall. Logue, A. W. (2000). Self-control and health
behavior. In W. K. Bickel & R. E. Vuchinich (Eds.), Reframing health behavior
change with behavioral economics ( pp. 167–192).
32
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Miller, L. K. (2006). Principles of everyday behavior analysis (4th ed.). Belmont, CA:
Thomson Wadsworth.
Nevin, J. A., y Grace, R. C. (2000). Behavioral momentum and the Law of Effect.
Behavioral and Brain Sciences, 23, 73–130.
Powell, R. W. (1968). The effect of small sequential changes in fixed-ratio size upon the
post reinforcement pause. Journal of the Experimental Analysis of Behavior, 11,
589–593. Pryor, K. (2001). Getting started: Clicker training for cats. Waltham,
MA: Sunshine Books.
33
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Risley, T. R. (1968). The effects and side effects of punishing the autistic behaviors of a
deviant child. Journal of Applied Behavior Analysis, 1, 21–34.
Shook, G. L., y Favell, J. E. (2008). The Behavior Analyst Certification Board and the
profession of behavior analysis. Behavior Analysis in Practice, 1(1), 44–48.
34
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Skinner, B. F. (1950). Are theories of learning necessary? Psychological Review, 57, 193–
216.
Skinner, B. F. (1951). How to teach animals. Scientific American, 185( 12), 26–29.
ew York: Macmillan.
Skinner, B. F. (1953). Science and human behavior. N
Smeets, P. M., Lancioni, G. E., Ball, T. S., y Oliva, D. S. (1985). Shaping self-initiated
toileting in infants. Journal of Applied Behavior Analysis, 18, 303–308.
Tatham, T. A., Wanchisen, B. A., y Hineline, P. N. (1993). Effects of fixed and variable
ratios on human behavioral variability. Journal of the Experimental Analysis of
Behavior, 59, 349–359.
35
UNIVERSIDAD DE CHILE
DEPARTAMENTO DE PSICOLOGÍA
USO EXCLUSIVO DE LA CÁTEDRA
Procesos Básicos de Aprendizaje
Thompson, T. (2014). Autism and behavior analysis: History and current status. In F. K.
McSweeney & E. S. Murphy (Eds.), Wiley-Blackwell handbook of operant and
classical conditioning (pp. 483–508). Oxford: Wiley-Blackwell.
Troisi, J., LeMay, B. J., y Järbe, T. C. (2010). Transfer of the discriminative stimulus
effects of Δ9-THC and nicotine from one operant response to another in rats.
Psychopharmacology, 212(2), 171–179.
Van Houten, R., y Rudolph, R. (1972). The development of stimulus control with and
without a lighted key. Journal of the Experimental Analysis of Behavior, 18( 2),
217– 222.
Walls, R. T., Zane, T., y Ellis, W. D. (1981). Forward and backward chaining, and whole
task methods: Training assembly tasks in vocational rehabilitation. Behavior
Modification, 5( 1), 61–74.
Want, S. C., y Harris, P. L. (2001). Learning from other people’s mistakes: Causal
understanding in learning to use a tool. Child Development, 72(2), 431–443.
36