Está en la página 1de 9

Conductismo operante:

Skinner y Thorndike

¿Qué es?

EL CONDICIONAMIENTO OPERANTE. El condicionamiento operante o condicionamiento


instrumental es un tipo de aprendizaje donde el comportamiento se controla con las consecuencias.
Se basa en la idea de que los comportamientos que se refuerzan tienden a mostrarse en más
ocasiones, mientras que los comportamientos que son castigados se extinguen.

Antecedentes del condicionamiento operante

Thorndike fue el primero en reconocer que este condicionamiento incluye algo más que una
respuesta y un reforzador.

La respuesta se da en presencia de unos estímulos determinados, considerándose tres sucesos: el


estímulo, la respuesta y la consecuencia de la respuesta o reforzador. Esta estructura facilita el
desarrollo de diferentes vinculaciones como sería la asociación entre el estímulo y la respuesta, la
cual fue para Thorndike clave para la formulación de la ley del efecto.

A través de ésta afirmó que las respuestas que vayan seguidas de consecuencias reforzantes,
tendrán mayor probabilidad de ocurrencia cuando el estímulo vuelva a aparecer. Por el contrario,
aquellas respuestas que son seguidas de consecuencias negativas, tendrán una menor probabilidad
de ocurrencia cuando el estímulo vuelva a aparecer. La ley del efecto es el antecedente del
condicionamiento operante o condicionamiento instrumental, como era nombrado por Thorndike.

Skinner, psicólogo del conductismo, el condicionamiento era el fortalecimiento de las conductas


según las consecuencias que anteriormente se hubieran obtenido. En esta línea, existen dos formas
de condicionamiento:

• El clásico o pavloviano: se basa en la asociación de estímulos incondicionados y


condicionados, siendo las respuestas controladas por los estímulos antecedentes.
• El condicionamiento operante: los estímulos consecuentes o reforzadores hacen que se
emita una conducta determinada.

Skinner explica que si la conducta es seguida de un reforzador positivo, aumentaría la probabilidad


de emisión de dicha conducta en un futuro. Al contrario, si una respuesta no va seguida de un
reforzador o ese reforzador es negativo, la probabilidad de emitir dicha conducta en un futuro será
menor.

Skinner identificó tres tipos de respuestas u operantes que pueden seguir el comportamiento:

1 operantes neutrales: respuestas del entorno que no aumentan ni disminuyen la


probabilidad de que se repita un comportamiento.
2 reforzadores: respuestas del entorno que incrementan la probabilidad de repetición de
un comportamiento. Los reforzadores pueden ser positivos o negativos.
3 castigos: respuestas del entorno que disminuyen la probabilidad de que se repita un
comportamiento. El castigo debilita el comportamiento.

Diferencia entre condicionamiento clásico y operante

La diferencia principal entre el condicionamiento clásico y el operante es que el primero se refiere


al aprendizaje de información sobre un estímulo, mientras que el segundo implica un aprendizaje
sobre las consecuencias de la respuesta. Skinner opinaba que la conducta era mucho más fácil de
modificar si se manipulaban sus consecuencias que si simplemente se asociaban estímulos a ésta,
como sucede en el condicionamiento clásico. El condicionamiento clásico se basa en la adquisición
de respuestas reflejas, con lo cual explica una menor cantidad de aprendizajes y sus usos son más
limitados que los del operante, ya que éste hace referencia a conductas que el sujeto puede
controlar a voluntad.

Conceptos del condicionamiento operante

• Refuerzo
Es el responsable de la emisión de respuestas, es decir, de la probabilidad de que sucedan,
sea mayor o menor en un futuro. Es un estímulo reforzante y consecuente, ya que se da una
vez se ha producido la respuesta, para Skinner los reforzadores se definen por medio de las
conductas que son.
observables y medibles.
Refuerzo positivo El refuerzo positivo refuerza un comportamiento proporcionando una
consecuencia que un individuo encuentra gratificante. Refuerzo negativo La eliminación de
un reforzador desagradable también puede fortalecer un comportamiento. Esto se conoce
como refuerzo negativo porque es la eliminación de un estímulo adverso que es
«gratificante» para el animal o la persona.
El refuerzo negativo refuerza el comportamiento porque detiene o elimina una experiencia
desagradable.
Reforzadores primarios Serían todos aquellos reforzadores básicos que no necesitan de
ninguna historia de condicionamiento previa para funcionar como tales. Algunos ejemplos
serían el agua, la comida y el sexo. Reforzadores secundarios
Los reforzadores secundarios si estarían basados en historias previas de condicionamiento
gracias a la asociación con estímulos incondicionados. Algunos ejemplos serían el dinero y
las calificaciones.
Castigo
Castigo El castigo también se mide por sus efectos en la conducta del sujeto. En cambio, a
diferencia del refuerzo, lo que se pretende es la disminución o supresión de una
determinada conducta. Un castigo reduce la probabilidad de emisión de una conducta en
situaciones posteriores. No obstante, no elimina la respuesta ya que, si la amenaza de
castigo disminuye, la conducta puede volver a aparecer.
• Castigo positivo
Este implica la presentación de un estímulo aversivo tras la realización de un determinado
comportamiento. Es dado de manera contingente a la respuesta dada por el sujeto.
• Castigo negativo
Consiste en la eliminación de un estímulo como consecuencia de un determinado
comportamiento, es decir, consiste en la retirada de un estímulo positivo tras la realización
de una determinada conducta.
Extinción
En la extinción se deja de emitir una respuesta debido a que el reforzador ya no aparece.
Este proceso se basa en dejar de proporcionar el reforzador correspondiente que se espera
conseguir y que ha hecho que ese comportamiento se mantenga a lo largo del tiempo.
Cuando una respuesta se extingue, el estímulo discriminativo pasa a ser estímulo de
extinción.
Este proceso no debe confundirse con el olvido, que es dado cuando la fuerza de un
comportamiento disminuye al no haber sido emitido en un período de tiempo.
Generalización
Ante una situación o estímulo determinado se condiciona una respuesta, que puede
aparecer ante otros estímulos o situaciones parecidas. Discriminación Este proceso es el
opuesto al de generalización, en él se responde de manera diferente según el estímulo y el
contexto.
Programas de refuerzo
Skinner también estableció gracias a sus investigaciones diversos programas de refuerzo,
entre los que están los programas de reforzamiento continuo y los programas de
reforzamiento intermitente.
Programas de refuerzo continuo Están basados en el reforzamiento constante de la
respuesta cada vez que se presente, es decir, cada vez que el sujeto ejecute la conducta
deseada obtendrá un estímulo reforzador o positivo.
Programas de refuerzo intermitente En cambio, aquí el sujeto no siempre obtiene el
reforzador al realizar la conducta deseada. Estos se definen en base al número de
respuestas dadas o al intervalo de tiempo transcurrido entre respuestas, dando lugar a
diferentes procedimientos.
Programas de razón fija En estos programas el reforzador se proporciona cuando el sujeto
genera respuestas fijas y constantes. Por ejemplo, en un programa de razón 10 la persona
obtiene el reforzador tras haber realizado diez respuestas cuando se presenta el estímulo.
Programas de razón variable Éste se construye igual que el anterior, pero en este caso el
número de respuestas que el sujeto debe dar para obtener el reforzador es variable. El
reforzador seguiría dependiendo del número de respuestas emitidas por el sujeto, pero con
una razón variable, gracias a la cual se evita que el sujeto llegue a predecir cuándo obtendrá
el reforzador.
Programas de intervalo fijo En los programas de intervalo la obtención del reforzador no
depende del número de respuestas que el sujeto dé, sino que está determinado por el
tiempo transcurrido. En consecuencia, se refuerza la primera respuesta producida después
de haber pasado un periodo de tiempo determinado. En los programas de intervalo fijo el
tiempo entre reforzador y reforzador es siempre el mismo.
Programas de intervalo variable En estos programas el reforzador se obtiene después de
un tiempo, aunque el tiempo es distinto para cada reforzador recibido. Cambio conductual
Aproximaciones sucesivas o moldeamiento
el moldeamiento consiste en el cambio conductual a través del moldeamiento de
conductas o el refuerzo diferencial de aproximaciones sucesivas. Para moldear una
conducta concreta se siguen una serie de pasos.
En primer lugar, se identifica cuál es la conducta inicial que se pretende moldear para saber
a cuál se quiere llegar. Después, se delimitan los posibles reforzadores que se van a emplear
y se separa en pasos o etapas el proceso para llegar a la conducta final, reforzando cada
etapa o aproximación sucesiva hasta llegar a la última.
Con este procedimiento dinámico se van transformando tanto las conductas como sus
consecuencias. En este sentido, se refuerzan las aproximaciones sucesivas hacia una
conducta objetivo.
No obstante, para que se pueda llevar a cabo, es necesario partir de una conducta previa
que ya realice el sujeto, para así ir reforzando poco a poco sus conductas hasta llegar a la
meta.
Encadenamiento
Con él se forma una nueva conducta a partir de la descomposición en pasos o secuencias
más sencillas, reforzando cada respuesta dada en cada uno de los pasos para así llevar al
establecimiento de una respuesta más compleja en el repertorio conductual del sujeto.
Se pueden llegar a formar cadenas largas de respuestas utilizando reforzadores
condicionados, adoptando una unidad funcional y cuyo establecimiento lleva a la
adquisición y definición de una destreza particular.
APLICACIONES DE CONDICIONAMIENTO OPERANTE.
Los psicólogos han usado técnicas de condicionamiento operante para modificar la
conducta
Programas de economía de fichas: La aplicación clásica es la economía de fichas en el
primer estudio se trató a más de 40 pacientes psicóticos recluidos en la sala de un hospital
psiquiátrico como si fuera una gigantesca caja de Skinner. Los resultados eran
impresionantes los pacientes se valían por sí mismos, pero los resultados no serían fuera de
la institución,
Programa de modificación de conducta: Las técnicas del condicionamiento operante han
sido aplicadas a distintas industrias, estas han disminuido los retrasos, absentismo " el
abuso de los permisos por enfermedad " mejoraron el desempleo " seguridad en el trabajo…
Castigo y reforzamiento negativo: Casi todas las aplicaciones del condicionamiento
operante se usaban como reforzamiento positivo en lugar de castigo, porque el castigo solo
tenía resultados inmediatos y no a largo plazo, Un reforzamiento negativo no es un castigo,
un reforzamiento negativo es un estímulo aversivo cuya supresión es recompensarte.
EXPERIMENTO DE THORNDIKE: CÓMO CUANTIFICÓ EL

APRENDIZAJE

Uno de los experimentos más conocidos de Thorndike consistía en encerrar a gatos que habían sido
privados de comida en una caja diseñada para tal efecto, depositando la comida fuera de la caja a
la vista del animal. Una vez encerrado en la caja, el gato realizaba multitud de movimientos
desordenados hasta que conseguía desactivar el cierre de la puerta y acceder a la comida situada
en el exterior de la caja. De los movimientos realizados por el gato durante el encierro, iba
eliminando progresivamente aquellos que le resultaban inútiles para escapar, realizando tan sólo
los que le permitían salir. El aprendizaje fue cuantificado en función de la disminución del tiempo
desde que el animal era introducido en la caja hasta que se registraba la respuesta eficaz de accionar
el mecanismo y poder escapar. El tiempo que el animal tardaba en salir de la caja, se denominó
técnicamente, latencia de respuesta.

LA CURVA DE APRENDIZAJE EN EL EXPERIMENTO DE THORNDIKE

La curva de aprendizaje en el experimento de Thorndike se refiere a la gráfica que representa el


nivel de éxito alcanzado por el animal durante el aprendizaje. Es decir, a la disminución de la latencia
de respuesta de un ensayo a otro.

CIRCULARIDAD DE LA LEY DEL EFECTO

Thorndike señaló que la conducta se define por su efecto sobre las consecuencias y las
consecuencias se definen por su efecto sobre la conducta. Thorndike pensaba que las acciones
tienen efecto sobre el ambiente y que este cambio ambiental actúa de forma retroactiva sobre la
conducta, así, si las consecuencias son negativas, la conducta tenderá a disminuir mientras que, si
las consecuencias son positivas, la conducta tenderá a repetirse en un futuro.

Esto es a lo que nos referimos cuando hablamos de circularidad de la ley del efecto. Para superar
los problemas de circularidad, Hull y Skinner propusieron teorías alternativas basadas en la
introducción de variables motivacionales, en el caso de Hull, y en la selección de conductas
operantes, en el de Skinner.
LÍMITES PARA APLICAR LA LEY DEL EFECTO: DEFINICIÓN DE UNA OPERANTE

La conducta operante debe ser, por definición, modificable por sus consecuencias. Si una conducta
no lo es, no puede conceptualizarse como una operante y, por tanto, sujeta a la ley del efecto. A
partir de los años 60, algunos autores estudiaron la posibilidad de saber de antemano si una
conducta es una operante, concluyendo que la explicación debía buscarse en las relaciones de la
conducta con sus consecuencias, no en la intervención de otros procesos psicológicos.

ENFOQUE E-R DE THORNDIKE DE LA LEY DEL EFECTO

Para Thorndike, las consecuencias reforzantes actúan fortaleciendo las conexiones entre la situación
y la respuesta. Concebía la conducta como meramente refleja de la situación ambiental. Las
respuestas que inicialmente se activarán con mayor intensidad, serán las que prevalezcan por la
filogenia y la especie animal estudiada en un orden jerárquico.

Esta prevalencia puede ser modificada por la experiencia a través de la historia ontogenética de
reforzamiento. Es la interacción entre filogenia y ontogenia la clave para entender por qué las
conductas pueden ser diferencialmente afectadas por la ley del efecto.

El condicionamiento instrumental: Como se produce el aprendizaje

Tras esta experimentación con gatos en cajas-problema de donde debían escapar Thorndike definió
unas leyes, que se convirtieron en la base de esta nueva teoría del aprendizaje, estas son:

1) Ley del efecto: Si la conexión entre estímulo y respuesta es recompensada esta conexión se hace
más fuerte y tiene más probabilidades de repetirse en el futuro; en cambio al ser castigada se
debilita. Él mismo comprobó que no en todos los casos el castigo es negativo, sino que a veces
también es un motivo de placer (por ejemplo: sadomasoquistas, autolesiones).

2) Ley del ejercicio: cuantas más veces se de esa conexión entre estímulo y respuesta más se
fortalecerá esa unión.

3) Ley de preparación o disposición: hay ciertas conexiones que están más predeterminadas
biológicamente, por tanto, es más fácil que se den unas que otras.
PROPUESTA DE SKINNER

Skinner defendió la idea de que la circularidad no constituía un problema en la formulación de leyes


del comportamiento, señalando que todas las leyes psicológicas deberían encerrar algún tipo de
circularidad. En la misma línea que Thorndike, postuló que la conducta operante es una conducta
emitida de forma voluntaria por los organismos y con efectos sobre el ambiente. Toda conducta
operante debe ser modificable por sus consecuencias, por tanto, de no poder ser modificada, no
podría considerarse una conducta operante. Así, las conductas que no son modificables por sus
consecuencias, no pueden considerarse sujetas a la ley del efecto. Se trataría, por tanto, de
seleccionar aquellas conductas consideradas como modificables de las que no lo son, no obstante,
su análisis no permite hacer esta distinción.

ENFOQUE R-CONSECUENCIA DE SKINNER DE LA LEY DEL EFECTO (EXPERIMENTO DE


DEVALUACIÓN DEL REFORZADOR)

Skinner discrepó de Thorndike en sus planteamientos, al considerar que el ambiente no provoca la


respuesta, sino que más bien indica la ocasión en la que una conducta llevará a consecuencias
reforzantes. Por tanto, según Skinner, podríamos decir que el 9 mecanismo teórico implicado en la
ley del efecto es el aprendizaje de relaciones entre la conducta y sus consecuencias, es decir, un
mecanismo Respuesta- Consecuencia. Supongamos una situación experimental en la que, en
presencia de un sonido, las presiones a una palanca eran reforzadas con comida azucarada. Si
posteriormente esta comida azucarada se empareja con un malestar gástrico inducido por una
inyección de cloruro de litio, encontraremos que los animales dejan de consumir esta comida
azucarada. Cuando los animales son llevados nuevamente a la situación experimental con el sonido
y la palanca, se producen menos presiones a la palanca que antes del tratamiento de devaluación
del reforzador. Estos resultados no pueden ser explicados desde la perspectiva teórica de Estímulo-
Respuesta, pero sí desde la aportada por Skinner de Respuesta-Consecuencia.

el enfoque de Skinner, el objeto de estudio lo constituyen las consecuencias medioambientales de


la conducta operante; es decir, la conducta de los organismos se “esculpe y moldea” a partir de las
consecuencias que éstas tienen sobre su medio. Aquellas conductas que favorecen la adaptación y
supervivencia del organismo en el medio ambiente, tienden a aumentar en frecuencia; por el
contrario, aquellas que tienen efectos nocivos para el sujeto tienden a desaparecer. Así pues, desde
este punto de vista, el comportamiento de los organismos se puede entender como un proceso de
selección por consecuencias, análogo al desarrollo de nuevas especies por mecanismos de selección
natural. Los repertorios conductuales adaptativos permanecen y aquéllos que tienen efectos
nocivos sobre el sujeto desaparecen. Las ideas de Skinner acerca de los orígenes del
comportamiento en los organismos, se acompañaron de desarrollos tecnológicos que permitieron
el estudio de las correlaciones entre el comportamiento y sus consecuencias de forma
automatizada. El sujeto experimental era colocado en una cámara experimental con un
manipulando cuya operación producía la caída de una plumilla sobre un rollo de papel giratorio (y
adicionalmente la entrega de una bola de alimento). De esta forma Skinner evaluaba sus hipótesis
de selección por consecuencias y adicionalmente medía objetivamente el comportamiento del
sujeto. Skinner rápidamente aprendió dos cosas a lo largo de sus investigaciones. En primer lugar,
se dio cuenta de que la cantidad de variantes que era posible utilizar para estudiar los efectos de las
consecuencias sobre la conducta era virtualmente infinita. En segundo lugar, descubrió que la
ejecución de diferentes especies animales en los diferentes procedimientos experimentales que
empleaba, era muy similar. Por ejemplo, al comparar la ejecución de ratas y palomas en programas
de intervalo fijo, encontró que, en ambas especies, se observa una tasa de respuesta que
incrementa de manera cada vez más acelerada, conforme se aproxima el vencimiento del tiempo
de la duración del intervalo. Skinner denominó al patrón festón; este patrón ha sido replicado por
numerosos autores y en diferentes especies animales.

También podría gustarte