Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Skinner y Thorndike
¿Qué es?
Thorndike fue el primero en reconocer que este condicionamiento incluye algo más que una
respuesta y un reforzador.
A través de ésta afirmó que las respuestas que vayan seguidas de consecuencias reforzantes,
tendrán mayor probabilidad de ocurrencia cuando el estímulo vuelva a aparecer. Por el contrario,
aquellas respuestas que son seguidas de consecuencias negativas, tendrán una menor probabilidad
de ocurrencia cuando el estímulo vuelva a aparecer. La ley del efecto es el antecedente del
condicionamiento operante o condicionamiento instrumental, como era nombrado por Thorndike.
Skinner identificó tres tipos de respuestas u operantes que pueden seguir el comportamiento:
• Refuerzo
Es el responsable de la emisión de respuestas, es decir, de la probabilidad de que sucedan,
sea mayor o menor en un futuro. Es un estímulo reforzante y consecuente, ya que se da una
vez se ha producido la respuesta, para Skinner los reforzadores se definen por medio de las
conductas que son.
observables y medibles.
Refuerzo positivo El refuerzo positivo refuerza un comportamiento proporcionando una
consecuencia que un individuo encuentra gratificante. Refuerzo negativo La eliminación de
un reforzador desagradable también puede fortalecer un comportamiento. Esto se conoce
como refuerzo negativo porque es la eliminación de un estímulo adverso que es
«gratificante» para el animal o la persona.
El refuerzo negativo refuerza el comportamiento porque detiene o elimina una experiencia
desagradable.
Reforzadores primarios Serían todos aquellos reforzadores básicos que no necesitan de
ninguna historia de condicionamiento previa para funcionar como tales. Algunos ejemplos
serían el agua, la comida y el sexo. Reforzadores secundarios
Los reforzadores secundarios si estarían basados en historias previas de condicionamiento
gracias a la asociación con estímulos incondicionados. Algunos ejemplos serían el dinero y
las calificaciones.
Castigo
Castigo El castigo también se mide por sus efectos en la conducta del sujeto. En cambio, a
diferencia del refuerzo, lo que se pretende es la disminución o supresión de una
determinada conducta. Un castigo reduce la probabilidad de emisión de una conducta en
situaciones posteriores. No obstante, no elimina la respuesta ya que, si la amenaza de
castigo disminuye, la conducta puede volver a aparecer.
• Castigo positivo
Este implica la presentación de un estímulo aversivo tras la realización de un determinado
comportamiento. Es dado de manera contingente a la respuesta dada por el sujeto.
• Castigo negativo
Consiste en la eliminación de un estímulo como consecuencia de un determinado
comportamiento, es decir, consiste en la retirada de un estímulo positivo tras la realización
de una determinada conducta.
Extinción
En la extinción se deja de emitir una respuesta debido a que el reforzador ya no aparece.
Este proceso se basa en dejar de proporcionar el reforzador correspondiente que se espera
conseguir y que ha hecho que ese comportamiento se mantenga a lo largo del tiempo.
Cuando una respuesta se extingue, el estímulo discriminativo pasa a ser estímulo de
extinción.
Este proceso no debe confundirse con el olvido, que es dado cuando la fuerza de un
comportamiento disminuye al no haber sido emitido en un período de tiempo.
Generalización
Ante una situación o estímulo determinado se condiciona una respuesta, que puede
aparecer ante otros estímulos o situaciones parecidas. Discriminación Este proceso es el
opuesto al de generalización, en él se responde de manera diferente según el estímulo y el
contexto.
Programas de refuerzo
Skinner también estableció gracias a sus investigaciones diversos programas de refuerzo,
entre los que están los programas de reforzamiento continuo y los programas de
reforzamiento intermitente.
Programas de refuerzo continuo Están basados en el reforzamiento constante de la
respuesta cada vez que se presente, es decir, cada vez que el sujeto ejecute la conducta
deseada obtendrá un estímulo reforzador o positivo.
Programas de refuerzo intermitente En cambio, aquí el sujeto no siempre obtiene el
reforzador al realizar la conducta deseada. Estos se definen en base al número de
respuestas dadas o al intervalo de tiempo transcurrido entre respuestas, dando lugar a
diferentes procedimientos.
Programas de razón fija En estos programas el reforzador se proporciona cuando el sujeto
genera respuestas fijas y constantes. Por ejemplo, en un programa de razón 10 la persona
obtiene el reforzador tras haber realizado diez respuestas cuando se presenta el estímulo.
Programas de razón variable Éste se construye igual que el anterior, pero en este caso el
número de respuestas que el sujeto debe dar para obtener el reforzador es variable. El
reforzador seguiría dependiendo del número de respuestas emitidas por el sujeto, pero con
una razón variable, gracias a la cual se evita que el sujeto llegue a predecir cuándo obtendrá
el reforzador.
Programas de intervalo fijo En los programas de intervalo la obtención del reforzador no
depende del número de respuestas que el sujeto dé, sino que está determinado por el
tiempo transcurrido. En consecuencia, se refuerza la primera respuesta producida después
de haber pasado un periodo de tiempo determinado. En los programas de intervalo fijo el
tiempo entre reforzador y reforzador es siempre el mismo.
Programas de intervalo variable En estos programas el reforzador se obtiene después de
un tiempo, aunque el tiempo es distinto para cada reforzador recibido. Cambio conductual
Aproximaciones sucesivas o moldeamiento
el moldeamiento consiste en el cambio conductual a través del moldeamiento de
conductas o el refuerzo diferencial de aproximaciones sucesivas. Para moldear una
conducta concreta se siguen una serie de pasos.
En primer lugar, se identifica cuál es la conducta inicial que se pretende moldear para saber
a cuál se quiere llegar. Después, se delimitan los posibles reforzadores que se van a emplear
y se separa en pasos o etapas el proceso para llegar a la conducta final, reforzando cada
etapa o aproximación sucesiva hasta llegar a la última.
Con este procedimiento dinámico se van transformando tanto las conductas como sus
consecuencias. En este sentido, se refuerzan las aproximaciones sucesivas hacia una
conducta objetivo.
No obstante, para que se pueda llevar a cabo, es necesario partir de una conducta previa
que ya realice el sujeto, para así ir reforzando poco a poco sus conductas hasta llegar a la
meta.
Encadenamiento
Con él se forma una nueva conducta a partir de la descomposición en pasos o secuencias
más sencillas, reforzando cada respuesta dada en cada uno de los pasos para así llevar al
establecimiento de una respuesta más compleja en el repertorio conductual del sujeto.
Se pueden llegar a formar cadenas largas de respuestas utilizando reforzadores
condicionados, adoptando una unidad funcional y cuyo establecimiento lleva a la
adquisición y definición de una destreza particular.
APLICACIONES DE CONDICIONAMIENTO OPERANTE.
Los psicólogos han usado técnicas de condicionamiento operante para modificar la
conducta
Programas de economía de fichas: La aplicación clásica es la economía de fichas en el
primer estudio se trató a más de 40 pacientes psicóticos recluidos en la sala de un hospital
psiquiátrico como si fuera una gigantesca caja de Skinner. Los resultados eran
impresionantes los pacientes se valían por sí mismos, pero los resultados no serían fuera de
la institución,
Programa de modificación de conducta: Las técnicas del condicionamiento operante han
sido aplicadas a distintas industrias, estas han disminuido los retrasos, absentismo " el
abuso de los permisos por enfermedad " mejoraron el desempleo " seguridad en el trabajo…
Castigo y reforzamiento negativo: Casi todas las aplicaciones del condicionamiento
operante se usaban como reforzamiento positivo en lugar de castigo, porque el castigo solo
tenía resultados inmediatos y no a largo plazo, Un reforzamiento negativo no es un castigo,
un reforzamiento negativo es un estímulo aversivo cuya supresión es recompensarte.
EXPERIMENTO DE THORNDIKE: CÓMO CUANTIFICÓ EL
APRENDIZAJE
Uno de los experimentos más conocidos de Thorndike consistía en encerrar a gatos que habían sido
privados de comida en una caja diseñada para tal efecto, depositando la comida fuera de la caja a
la vista del animal. Una vez encerrado en la caja, el gato realizaba multitud de movimientos
desordenados hasta que conseguía desactivar el cierre de la puerta y acceder a la comida situada
en el exterior de la caja. De los movimientos realizados por el gato durante el encierro, iba
eliminando progresivamente aquellos que le resultaban inútiles para escapar, realizando tan sólo
los que le permitían salir. El aprendizaje fue cuantificado en función de la disminución del tiempo
desde que el animal era introducido en la caja hasta que se registraba la respuesta eficaz de accionar
el mecanismo y poder escapar. El tiempo que el animal tardaba en salir de la caja, se denominó
técnicamente, latencia de respuesta.
Thorndike señaló que la conducta se define por su efecto sobre las consecuencias y las
consecuencias se definen por su efecto sobre la conducta. Thorndike pensaba que las acciones
tienen efecto sobre el ambiente y que este cambio ambiental actúa de forma retroactiva sobre la
conducta, así, si las consecuencias son negativas, la conducta tenderá a disminuir mientras que, si
las consecuencias son positivas, la conducta tenderá a repetirse en un futuro.
Esto es a lo que nos referimos cuando hablamos de circularidad de la ley del efecto. Para superar
los problemas de circularidad, Hull y Skinner propusieron teorías alternativas basadas en la
introducción de variables motivacionales, en el caso de Hull, y en la selección de conductas
operantes, en el de Skinner.
LÍMITES PARA APLICAR LA LEY DEL EFECTO: DEFINICIÓN DE UNA OPERANTE
La conducta operante debe ser, por definición, modificable por sus consecuencias. Si una conducta
no lo es, no puede conceptualizarse como una operante y, por tanto, sujeta a la ley del efecto. A
partir de los años 60, algunos autores estudiaron la posibilidad de saber de antemano si una
conducta es una operante, concluyendo que la explicación debía buscarse en las relaciones de la
conducta con sus consecuencias, no en la intervención de otros procesos psicológicos.
Para Thorndike, las consecuencias reforzantes actúan fortaleciendo las conexiones entre la situación
y la respuesta. Concebía la conducta como meramente refleja de la situación ambiental. Las
respuestas que inicialmente se activarán con mayor intensidad, serán las que prevalezcan por la
filogenia y la especie animal estudiada en un orden jerárquico.
Esta prevalencia puede ser modificada por la experiencia a través de la historia ontogenética de
reforzamiento. Es la interacción entre filogenia y ontogenia la clave para entender por qué las
conductas pueden ser diferencialmente afectadas por la ley del efecto.
Tras esta experimentación con gatos en cajas-problema de donde debían escapar Thorndike definió
unas leyes, que se convirtieron en la base de esta nueva teoría del aprendizaje, estas son:
1) Ley del efecto: Si la conexión entre estímulo y respuesta es recompensada esta conexión se hace
más fuerte y tiene más probabilidades de repetirse en el futuro; en cambio al ser castigada se
debilita. Él mismo comprobó que no en todos los casos el castigo es negativo, sino que a veces
también es un motivo de placer (por ejemplo: sadomasoquistas, autolesiones).
2) Ley del ejercicio: cuantas más veces se de esa conexión entre estímulo y respuesta más se
fortalecerá esa unión.
3) Ley de preparación o disposición: hay ciertas conexiones que están más predeterminadas
biológicamente, por tanto, es más fácil que se den unas que otras.
PROPUESTA DE SKINNER