Está en la página 1de 6

Indicación y espacio para enviar tarea #4

Luego de consultar la bibliografía señalada y otras fuentes de interés


científico para la temática objeto de estudio, se aconseja que realices las
siguientes actividades:

1. Realiza una tabla donde expliques sobre el condicionamiento operante:

 ¿En qué consiste?


 Principales autores.
 Relación entre estímulos y respuestas.
 Explica el experimento utilizado por su principal autor para
describirlo.

Condicionamiento Operante

¿En qué consiste?

El condicionamiento operante es una forma de aprendizaje que consiste


en asociar un estímulo a una respuesta con la finalidad de que la respuesta
se produzca más o menos. Es decir, se produce una conducta y después de
la conducta hay una consecuencia, algo que pasa después. Entonces existen
dos opciones: que la consecuencia sea positiva o negativa.

El condicionamiento operante o instrumental es el término que se emplea


para referirse al método de aprendizaje que se produce a través de la
asociación de refuerzos (recompensas) y castigos con una determinada
conducta. De esta forma se lleva a cabo una asociación entre el
comportamiento y la consecuencia de este. El objetivo principal de esta
disciplina es aumentar o disminuir la probabilidad de que una conducta se
vuelva a repetir. 
Principales Autores

El término fue introducido por el Psicólogo Burrhus Frederic Skinner, aunque


hoy se prefiere el de «condicionamiento instrumental», introducido
por Edward Thorndike, por ser más descriptivo. Este último sugiere que la
conducta sirve de instrumento para conseguir un fin y se da por ensayo y
error, a diferencia del condicionamiento operante planteado por Skinner, que
propone que aquellas respuestas que se vean reforzadas tienen tendencia a
repetirse y aquellas que reciban un castigo tendrán menos probabilidad de
repetirse.
El psicólogo Edward Thorndike (1874-1949) fue uno de los pioneros en el
estudio del condicionamiento operante.

También los estudios de Pávlov sobre condicionamiento clásico tuvieron una


gran influencia en el estudio del condicionamiento operante. Si bien se trata
de procesos de aprendizaje diferentes, el condicionamiento clásico y el
operante comparten varios de sus principios, como la adquisición,
la extinción, la discriminación o la generalización.

Relación entre estímulos y respuestas.

Thorndike realizó experimentos con gatos a los que metía en el interior de


una caja que sólo se abría al accionar un resorte. Fuera de la caja ponía
comida y los gatos intentaban escapar para alcanzarla. Al principio su
movimiento era aleatorio hasta que, por casualidad, lograban salir. En los
sucesivos intentos los gatos repetían acciones similares pero cada
vez encontraban más rápidamente la manera de conseguir su recompensa.
Estas observaciones le condujeron a enunciar la ley del efecto:

La conexión entre estímulo y respuesta se fortalece si va seguida de


una consecuencia placentera y se debilita si va seguida de una
consecuencia desagradable.

Por tanto, los actos que tienen consecuencias satisfactorias tenderán a


repetirse, lo que constituye el principio fundamental del aprendizaje que
sostiene la teoría del condicionamiento operante que desarrolló Skinner.

Explica el experimento utilizado por su principal autor para describirlo.


El autor más importante en el estudio del condicionamiento operante es B. F.
Skinner. A finales de la década de 1920 empezó a trabajar con palomas.
Para ello, utilizaba un ambiente libre de distracciones denominado caja de
Skinner, en el que se podían manipular las condiciones en las que se
proporcionaba alimento a los animales. Sus exhaustivos estudios utilizando
este artefacto permitieron a Skinner descubrir muchos de los factores que
influyen en el condicionamiento operante.

El experimento de la caja de Skinner (1938) es simple: una rata se colocaba


en una jaula cerrada y aislada acústicamente, de modo que el animal no
fuera alcanzado por estímulos externos. En la jaula había una pequeña
palanca cuya presión provocaba la caída de una bola de comida. La palanca,
además, estaba conectada a un plumón externo: al bajar la palanca, el
plumón marcaba el papel que corría sobre un rodillo, permitiendo así registrar
la frecuencia con la que se bajaba la palanca. Este dispositivo fue llamado
"caja de skinner" (Skinner box).

La rata metida en la jaula, explorando el entorno y moviéndose a


voluntad, presiona la palanca tarde o temprano, provocando la caída de la
bola de comida. Algunas veces, se observa que el apalancamiento se reduce
regularmente. La rata presiona la palanca varias veces en un corto período
de tiempo, y los intervalos entre las presiones coinciden con el tiempo
necesario para comer la bola de comida; después de lo cual la palanca no se
presiona durante un cierto período de tiempo, porque el animal está saciado,
luego, después de un tiempo, la rata se dirige decididamente a la palanca,
comienza a presionar y a comer.

2. Elabora una tabla donde describas lo siguiente:

 Procedimientos del condicionamiento instrumental.


 Elementos fundamentales del condicionamiento instrumental.
 La estructura asociativa del condicionamiento instrumental.
 Regulación conductual.

Procedimientos del condicionamiento instrumental.

Existen cuatro procedimientos o tipos de condicionamiento instrumental:


Refuerzo positivo o condicionamiento de recompensa: Un refuerzo
positivo es un objeto, evento o conducta cuya presencia incrementa la
frecuencia de la respuesta por parte del sujeto. Se trata del mecanismo más
efectivo para hacer que tanto animales como humanos aprendan. Se
denomina «refuerzo» porque aumenta la frecuencia de la conducta, y
«positivo» porque el refuerzo está presente.

Refuerzo negativo: Un refuerzo negativo es un objeto, evento o conducta


cuya retirada incrementa la frecuencia de la respuesta por parte del sujeto. Al
igual que el anterior, se denomina «refuerzo» porque aumenta la frecuencia
de la conducta, pero «negativo» porque la respuesta se incrementa cuando
el refuerzo desaparece. En el refuerzo negativo se pueden distinguir dos
procedimientos:

 Condicionamiento de escape: En este caso, la frecuencia de una


respuesta aumenta porque interrumpe un estímulo aversivo, es decir,
un suceso que está ocurriendo y que el sujeto considera
desagradable. Un ejemplo típico sería el de un animal que aprieta una
palanca porque así elimina una corriente eléctrica o el de un padre
que le compra una chuchería a su hijo para dejar de oírle llorar.
 Condicionamiento de evitación: En este caso, la frecuencia de una
respuesta aumenta porque pospone o evita un estímulo
aversivo futuro. Un ejemplo típico sería el de un alumno que estudia
para evitar una mala nota.

Entrenamiento de omisión: Se produce cuando la respuesta operante


impide la presentación de un refuerzo positivo o de un hecho agradable; es
decir, consiste en retirar el estímulo positivo de una conducta para así
provocar la extinción de la respuesta. Un ejemplo importante es el de
«tiempo fuera», en el que se retira la atención de un niño aislándolo durante
un cierto período de tiempo.

Castigo: El castigo provoca la disminución de una conducta porque el


suceso que la sigue es un estímulo aversivo. Un ejemplo típico es castigar a
una rata con una pequeña corriente eléctrica cuando pulsa una palanca.
Aunque el castigo puede ser en ocasiones muy eficaz para hacer que
desaparezca una conducta, se recomienda utilizarlo lo menos posible, ya que
tiene muchos efectos adversos o no deseados.
Elementos fundamentales del condicionamiento instrumental.

La esencia de la conducta instrumental es que está controlada por sus


consecuencias. El condicionamiento instrumental consta de tres elementos
claves; una respuesta, una consecuencia (el reforzador) y una relación o
contingencia, entre la respuesta y la consecuencia.

La respuesta instrumental

El resultado de los procedimientos del condicionamiento instrumental


depende en parte de la naturaleza de la respuesta que se esté
condicionando. Algunas respuestas son más fácilmente condicionables que
otras.

El reforzador instrumental

Cantidad y naturaleza del reforzador: En un estudio sistemático, Hutt (1954)


intento aislar los efectos de la cantidad y naturaleza del reforzador alimenticio
liquido mediante la variación sistemática de ambos rasgos. Los incrementos
en la calidad y cantidad produjeron mayor tasa de respuesta.

Cambios en la naturaleza y la cantidad de reforzador: Se plantea la


posibilidad de que la efectividad de un reforzador dependa no solo de sus
propiedades sino también de cómo ese reforzador se compara con otros que
el individuo haya experimentado. 

La relación respuesta reforzador

La conducta instrumental eficiente requiere sensibilidad a la relación


respuesta reforzador. Existen dos tipos de relaciones entre una respuesta y
un reforzador, una es la relación temporal. Que se refiere al tiempo que
transcurre entre la respuesta y el reforzador, un tipo especial de relación
temporal es la contigüidad temporal, la cual se refiere a la entrega del
reforzador inmediatamente después de la respuesta.

El segundo tipo de relación es la relación causal o contingencia respuesta


reforzador, se refiere al hecho de que la respuesta instrumental es necesaria
y suficiente para la ocurrencia del reforzador.

La estructura asociativa del condicionamiento instrumental.

La asociación E_R ya la ley del efecto

La asociación E-R fue postulada por Thorndike como la clave del aprendizaje
instrumental en su ley del efecto; el papel del reforzador o de la
consecuencia de la respuesta es establecer o estampar una asociación entre
las claves contextuales E y la respuesta instrumental, pensó que una vez
establecida esta asociación E-R seria, de forma única, responsable de la
ocurrencia de la respuesta instrumental. Por tanto, el ímpetu básico o
motivación para la respuesta instrumental era la activación de la asociación
E-R mediante la exposición del sujeto a los estímulos en presencia de los
cuales la respuesta instrumental fue previamente reforzada.

Expectativa de recompensa y la asociación E-C

Cualesquiera que sean los estímulos, el reforzamiento de la respuesta


instrumental producirá inevitablemente un emparejamiento entre E y el
reforzador o consecuencia de la respuesta (C). Estos emparejamientos
proporcionan el potencial para el condicionamiento clásico y el
establecimiento de una asociación entre E y C.

Regulación conductual.

Los análisis de regulación conductual están basados en una visión del


mundo completamente distinta. En lugar de considerar el condicionamiento
instrumental en términos del reforzamiento de una respuesta, los análisis de
la regulación conductual se centran en como las contingencias
instrumentales ponen limitaciones a las actividades de un organismo.

Antecedentes de la regulación conductual

Los teóricos estaban de acuerdo en que los reforzadores eran estímulos


especiales que fortalecías la conducta instrumental durante medio siglo
después de la ley del efecto de Thorndike
La teoría de la respuesta con sumatoria: E primer reto a esta idea vino de
Fred Sheffield que formularon la teoría de respuesta con sumatoria, esta
atribuye el reforzamiento a estas conductas típicas de la especie. Se
establece que las respuestas con sumatorias típicas de la especie son en sí
mismas el rasgo crítico de los reforzadores.

Fue una innovación radical debido a que traslado la investigación de los


reforzadores desde tipos especiales de estímulos a tipos especiales de
respuestas. Se consideró que las respuestas reforzadoras eran especiales
porque involucraban la consumación o el completamiento de una secuencia
instintiva de conducta. David Premack retomo el tema con su teoría y sugirió
que las respuestas reforzadoras son especiales solo debido a que es más
probable que ocurran que las respuestas instrumentales a las que siguen.

También podría gustarte