Está en la página 1de 23

Nombre:

Pamela Paulina

Apellido:
Arias Toribio

Matricula:
100525660

Materia:
Psicología general

Maestra:
Ramon olivo regla
Condicionamiento Clásico o Respondiente y
condicionamiento Operante.
1. Investigar los aportes de Iván Pávlov a la Teoría del Aprendizaje.

2. Iván Petrovich Pávlov fue un fisiólogo ruso muy conocido por sus experimentos
con perros, que dieron lugar a lo que hoy en día se conoce como condicionamiento
clásico. El condicionamiento clásico o pelviano es el tipo de aprendizaje asociativo
más básico, en el que un organismo responde a un estímulo ambiental,
originariamente neutro, con una respuesta automática o refleja.
3. Los descubrimientos de Pávlov se estudian en todas las universidades de
psicología y ciencias de la educación, pues es uno de los temas más introductorios
de ambas carreras, y es uno de los principios básicos del aprendizaje. En este
artículo podrás encontrar la biografía de esta célebre figura histórica y la
explicación de por qué es considerado uno investigadores más importantes de
todos los tiempos. Ganó el Premio Nobel 1904 de Fisiología o Medicina por sus
experimentos con perros.

Los experimentos de los perros

Iván Pávlov es conocido por sus experimentos con perros. Y aunque hoy en día es una
de las figuras célebres de la psicología y la educación, su primera intención no era la
de estudiar el aprendizaje, sino la salivación de los canes.

Durante sus experimentos, lo que le llamó la atención era que, tras repetidos ensayos,
los perros segregaban la saliva incluso ante su presencia (la de Pávlov),
independientemente de que le diera de comer o no. Esto ocurría porque los animales
habían aprendido que cuando Pávlov entraba por la puerta iban a recibir comida en
cualquier momento.

A partir de este descubrimiento, el fisiólogo ideó una serie de experimentos en los


que hacía sonar una campana justo antes de entregarle la comida al perro para medir
la producción de la saliva. Pávlov descubrió que una vez que los canes eran entrenados
para asociar el sonido de la campana con los alimentos, producirían saliva, aunque no
estuviera presente el alimento. Es decir, que la campana hacía que se produjera la
salivación igual que cuando la comida estaba presente. El experimento demostró que
la respuesta fisiológica de los perros, la salivación, se había asociado al estímulo de la
campana.

Nacimiento del condicionamiento clásico

Pávlov no solo empleo como estímulo la campana, sino que más adelante utilizó otros
estímulos, tanto auditivos como visuales, para producir lo que llamaba la respuesta
condicionada. Sus experimentos son un ejemplo del condicionamiento clásico, que
forma parte de la teoría conductista y, por tanto, las ideas de Pávlov dejan de lado los
procesos mentales para darle especial importancia a la conducta observable y medible.
Y es que sus experimentos tienen gran importancia para el desarrollo del método
científico en psicología, y permitieron el desarrollo de uno de los modelos teóricos del
aprendizaje más conocidos.

El condicionamiento clásico también es conocido como aprendizaje estímulo-


respuesta (E-R). Para que se produzca el aprendizaje por asociación, inicialmente se
presenta el estímulo incondicionado (EI), que es un estímulo que de manera
automática provoca una respuesta del organismo. En el caso del experimento de
Pávlov, era la comida. La respuesta que este estímulo provoca en el organismo recibe
el nombre de respuesta incondicionada (RI). La respuesta incondicionada era la
cantidad de saliva que el perro de Pávlov segregaba.

Después es necesario presentar un estímulo neutro (EN), es decir, la campana en el


caso del experimento, que antes de ocurrir el aprendizaje no produce ninguna
respuesta. Ahora bien, cuando este estímulo se presenta en repetidas ocasiones junto
al EI, el estímulo neutro se convierte en estímulo condicionado (EC), que provoca por sí
solo una respuesta similar a la del estímulo incondicionado. En este caso, lo que ocurre
al escuchar la campana recibe el nombre de respuesta condicionada (RC).

Watson hizo popular a Pávlov en Occidente

Pávlov fue pionero en su descubrimiento del condicionamiento clásico; sin embargo,


sus hazañas tardaron algún tiempo en llegar al mundo occidental, pues éstos se
realizaron en la antigua Unión Soviética. Fue gracias a John B. Watson que las ideas
iniciales de Pávlov se popularizaron en Europa y América, y dieron pie al desarrollo
posterior del condicionamiento operante o instrumental.

Ambas teorías conforman la teoría conductista, que es considerada un de las


corrientes más destacadas de la psicología. Watson introdujo el condicionamiento
clásico en Estados Unidos donde tuvo gran importancia en el sistema educativo
americano y en la psicología mundial.

Aportaciones para el conductismo

Lógicamente, no hay que menospreciar el trabajo de Watson, que fue importante


porque desarrolló las ideas iniciales de Pávlov y las aplicó a los seres humanos. De
entre las implicaciones más importantes del condicionamiento clásico es posible
destacar:

 Importancia en el desarrollo y tratamiento de algunas patologías: fobias,

ansiedad, etc.
 Ayudó a comprender los procesos de aprendizaje asociativo.

 Gran influencia en el método científico en Psicología.


 Generación hábitos de conducta mediante el refuerzo al ayudar a desarrollar el

condicionamiento instrumental.
 Potenciador de la generalización de los aprendizajes.


2. El tipo de Aprendizaje sobre Condicionamiento Clásico.
 Dentro de los procedimientos conductuales, el condicionamiento operante o
instrumental es probablemente el que tiene aplicaciones más numerosas y
variadas.
 Desde el tratamiento de fobias hasta la superación de adicciones como
el tabaquismo o el alcoholismo, el esquema operante permite conceptualizar y
modificar prácticamente cualquier hábito a partir de la intervención sobre unos
pocos elementos.
 Pero ¿en qué consiste exactamente el condicionamiento operante? En este
artículo repasamos los conceptos clave para entender este paradigma y
detallamos sus aplicaciones más frecuentes, tanto para aumentar conductas
como para reducirlas.

 Antecedentes del condicionamiento operante


 El condicionamiento operante tal y como lo conocemos fue formulado y
sistematizado por Burrhus Frederic Skinner en base a las ideas planteadas
previamente por otros autores.
 Iván Pávlov y John B. Watson habían descrito el condicionamiento clásico,
también conocido como condicionamiento simple o pavloviano.
 Por su parte, Edward Thorndike introdujo la ley del efecto, el antecedente más
claro del condicionamiento operante. La ley del efecto plantea que si una
conducta tiene consecuencias positivas para quien la realiza será más probable
que se repita, mientras que si tiene consecuencias negativas esta probabilidad
disminuirá. En el contexto de la obra de Thorndike el condicionamiento
operante es denominado “instrumental”.

 Conceptos del condicionamiento operante


 A continuación, definiremos los conceptos básicos del condicionamiento
operante para entender mejor este procedimiento y sus aplicaciones.
 Muchos de estos términos son compartidos por las orientaciones conductuales
en general, si bien pueden tener connotaciones específicas dentro del
paradigma operante.

 Respuesta instrumental u operante

 Este término designa cualquier conducta que conlleva una consecuencia


determinada y es susceptible de cambiar en función de ésta. Su nombre indica
que sirve para obtener algo (instrumental) y que actúa sobre el medio
(operante) en lugar de ser provocada por éste, como sucede en el caso del
condicionamiento clásico o respondiente.
 En la teoría conductista la palabra “respuesta” es básicamente equivalente a
“conducta” y “acción”, si bien “respuesta” parece hacer referencia en mayor
medida a la presencia de estímulos antecedentes.

 Consecuencia

 En la psicología conductista y cognitivo-conductual una consecuencia es el


resultado de una respuesta. La consecuencia puede ser positiva (refuerzo) o
negativa (castigo) para el sujeto que lleve a cabo la conducta; en el primer caso
la probabilidad de que se dé la respuesta aumentará y en el segundo
disminuirá.
 Es importante tener en cuenta que las consecuencias afectan a la respuesta y,
por tanto, en el condicionamiento operante lo que es reforzado o castigado es
dicha conducta, no la persona o el animal que la lleva a cabo. En todo momento
se trabaja con la intención de influir en el modo en el que se relacionan los
estímulos y las respuestas, ya que desde la filosofía conductista se evita partir
desde una visión esencialista de las personas, poniendo más énfasis en aquello
que puede cambiar que en lo que siempre parece permanecer igual.
 Reforzamiento

 Este término designa las consecuencias de las conductas cuando hacen más


probable que se vuelvan a dar. El reforzamiento puede ser positivo, en cuyo
caso estaremos hablando de la obtención de una recompensa o premio por la
ejecución de una respuesta, o negativo, que engloba la desaparición de
estímulos aversivos.
 Dentro del reforzamiento negativo podemos distinguir entre respuestas de
evitación y de escape. Las conductas de evitación previenen o impiden la
aparición de un estímulo aversivo; por ejemplo, una persona
con agorafobia que no sale de casa porque así no siente ansiedad está
evitando esta emoción. En cambio, las respuestas de escape hacen que el
estímulo desaparezca cuando ya está presente.
 La diferencia con la palabra “reforzador” es que ésta se refiere al evento que se
da como consecuencia de la conducta en vez de al procedimiento de premiar o
castigar. Por tanto, “reforzador” es un término más cercano a “recompensa” y
“premio” que a “reforzamiento”

 Castigo

 Un castigo es cualquier consecuencia de una conducta determinada que


disminuya la probabilidad de que ésta se repita.
 Como el reforzamiento, el castigo puede ser positivo o negativo. El castigo
positivo se corresponde con la presentación de un estímulo aversivo después
de que se produzca la respuesta, mientras que el castigo negativo es la retirada
de un estímulo apetitivo como consecuencia de la conducta.
 El castigo positivo se puede relacionar con el uso que se da en general a la
palabra “castigo”, mientras que el castigo negativo se refiere más bien a algún
tipo de sanción o multa. Si un niño no deja de gritar y recibe una bofetada de su
madre para que se calle se le estará aplicando un castigo positivo, mientras que
si en vez de eso le quita la consola a la que está jugando recibirá un castigo
negativo.

3. Explique los Fundamentos del Condicionamiento Clásico haciendo una


Descripción del Experimento con el perro realizado por Pávlov. 
4. El Condicionamiento clásico (o Condicionamiento pavloviano) es uno de los temas
introductorios que se estudian en la carrera de psicología, y es uno de los
principios básicos del aprendizaje.
5. Por eso, seguramente todos los psicólogos y maestros tienen conocimiento sobre
su importancia en el aprendizaje asociativo o en la formación de patologías como
las fobias. Son pocos los que no conocen a Iván Pávlov y sus experimentos con
perros. Para aquellos que todavía no lo conocen, a continuación, explicamos su
teoría al detalle.

6. El Condicionamiento clásico, explicado

7. Una de las características más importantes de este tipo de aprendizaje es que


implica respuestas automáticas o reflejas, no conductas voluntarias (a diferencia
del Condicionamiento operante o instrumental). Se denominó "condicionamiento
clásico" a la creación de una conexión entre un estímulo nuevo y un reflejo ya
existente, por tanto, es un tipo de aprendizaje según el cual un estímulo
originalmente neutro, que no provoca una respuesta, llega a poder provocarla
gracias a la conexión asociativa de este estímulo con el estímulo que normalmente
provoca dicha respuesta.

8.
9. El Condicionamiento clásico sentó las bases del conductismo, una de las escuelas
más importantes de la psicología, y nace como consecuencia de los estudios
Pávlov, un psicólogo ruso que se interesó por la fisiología de la digestión,
especialmente en los reflejos de salivación en perros.

10. El famoso experimento de los perros de Pávlov: El reflejo condicionado

11. Las investigaciones de Pávlov son una de las bases de las ciencias del
comportamiento. En sus investigaciones iniciales, Pávlov había observado que tras
poner alimentos en la boca de del perro que estaba investigando, éste empezaba
a segregar saliva procedente de determinadas glándulas. Pávlov denominó este
fenómeno como "reflejo de salivación".
12. Al realizar el experimento en repetidas ocasiones, observó que su presencia (la del
propio Pávlov) causaba que el perro empezara a segregar saliva sin tener la comida
presente, pues había aprendido que cuando Pávlov se presentaba en el
laboratorio, iba a recibir comida. Entonces, para poder saber si estaba en lo cierto,
puso un separador entre el perro y la comida, de esta manera el can no podía
visualizarla. El investigador introducía el alimento por una compuerta y registraba
la salivación del animal.
13. Más adelante, Pávlov empezó a aplicar distintos estímulos (auditivos y visuales)
que entonces eran neutros, justo antes de servirle la comida al perro. Sus
resultados indicaron que, tras varias aplicaciones, el animal asociaba los estímulos
(ahora estímulos condicionados) con la comida. Pávlov llamó “reflejo
condicionado” a la salivación que se producía tras esta asociación.
14. A continuación, puedes visualizar este video que explica los experimentos de
Pávlov.
4. Explique lo que es la Aplicación de los Principios del Condicionamiento al
comportamiento humano haciendo una explicación y conceptualización de los
siguientes principios:

Extinción: La extinción de la conducta operante consiste en dejar de reforzar una


respuesta que previamente había sido reforzada, lo que provoca que se vaya
reduciendo la repetición con la que ocurre una respuesta ante un estímulo; llegando
incluso a eliminarse la respuesta.
Usualmente esta extinción de la respuesta no es inmediata y varía la curva que mide la
frecuencia de la respuesta al dejar de reforzar, inicialmente sube y luego va bajando
gradualmente hasta tener niveles de respuesta mínimos.
Se contemplan tres parámetros en el proceso de extinción, que determinan la
resistencia a la extinción:
1. Tasa de reducción de frecuencia en que se produce la respuesta.
2. Cuantas veces se produce la respuesta antes de desaparecer o llegar a
su mínimo nivel.
3. Nivel final en el cual la frecuencia de respuesta no bajará por un lapso lo
suficientemente apreciable.
Los parámetros se encuentran afectados por variables cuya aparición y actuación
puede presentarse antes o durante la extinción.
1. Programa de reforzamiento a la conducta operante antes de la
extinción.
2. Magnitud del reforzador antes de la extinción
3. Número de reforzamientos recibidos antes de la extinción
4. Número de extinciones previas que haya tenido el organismo.
5. Nivel de motivación del organismo durante la extinción.
Estas variables influyen directa o inversamente proporcionales a la extinción de la
conducta operante. De tal manera que las tres primeras al ser más efectivas (la
primera) o mayores (la segunda y tercera) implican mayor resistencia a la extinción. En
la cuarta, cuanto mayor sea el número de extinciones previas, más rápido será la
nueva extinción y en la quinta variable, cuanto mayor sea la motivación del organismo
en la conducta reforzada, producto de un nivel de privación más intenso que el nivel
de privación mantenido durante el reforzamiento, la extinción será más
La recuperación espontánea es un fenómeno que implica mostrar repentinamente un
comportamiento que se creía extinto. Esto puede aplicarse a las respuestas que se han
formado a través del condicionamiento clásico y operante. La recuperación
espontánea se puede definir como la reaparición de la respuesta condicionada
después de un período de descanso o un período de respuesta disminuida. Si el
estímulo condicionado y el estímulo incondicionado ya no están asociados, la extinción
ocurrirá muy rápidamente después de una recuperación espontánea.

Ejemplos

Incluso si no está familiarizado con gran parte de la historia de la psicología,


probablemente al menos haya oído hablar de los famosos experimentos de Iban
Pávlov con perros. En el experimento clásico de Pávlov, los perros fueron
acondicionados para salivar al sonido de un tono. El sonido de un tono se emparejó
repetidamente con la presentación de la comida. Eventualmente, el sonido del tono
solo llevó a los perros a la salivación. Pávlov también señaló que ya no emparejar el
tono con la presentación de los alimentos llevó a la extinción o desaparición de la
respuesta de salivación.

Entonces, ¿qué pasaría si hubiera un "período de descanso" donde el estímulo ya no


estaba presente? Pávlov descubrió que después de un período de descanso de dos
horas, la respuesta de salivación reaparecía de repente cuando se presentaba el tono.
Esencialmente, los animales recuperaron espontáneamente la respuesta que
previamente se había extinguido.

Para otro ejemplo, imagina que has usado acondicionamiento clásico para entrenar a
tu perro a esperar comida cada vez que escuche el sonido de una campana

Para comprender exactamente qué es la recuperación espontánea y cómo funciona, es


esencial comenzar por comprender el proceso de acondicionamiento clásico en sí
mismo.

¿Cómo se produce el condicionamiento clásico?

 El condicionamiento clásico implica formar una asociación entre un


estímulo neutral y un estímulo incondicionado que produce de forma
natural y automática una respuesta. Enfilarse en respuesta a un fuerte
sonido de salivación en respuesta al olor de la cena cocinando en el horno
son ejemplos de estímulos no condicionados. Su respuesta a estas cosas se
lleva a cabo automáticamente sin ningún aprendizaje, por lo que se conoce
como la respuesta no condicionada .
 Después de emparejar repetidamente algo con el estímulo incondicionado,
el estímulo previamente neutral comenzará a desencadenar la misma
reacción, momento en el que se conoce como un estímulo condicionado .
La reacción aprendida al estímulo condicionado se denomina
ahora respuesta condicionada .
Por ejemplo, en el famoso experimento de Little Albert , los investigadores John B.
Watson y Rosalie Rayner emparejaron repetidamente un sonido fuerte (el estímulo
incondicionado) con la presentación de una rata blanca (el estímulo neutral).

El niño en su experimento previamente no tenía miedo del animal, pero estaba


naturalmente asustado por el ruido fuerte (la respuesta no condicionada). Después de
la combinación múltiple del ruido y la visión de la rata, el niño finalmente comenzó a
mostrar la respuesta al miedo (ahora conocida como la respuesta condicionada) cada
vez que veía la rata blanca (el estímulo condicionado).

Entonces, ¿qué podría haber pasado si Watson y Rayner hubieran dejado de emparejar
la rata y el ruido? Al principio, el niño naturalmente todavía estaría bastante asustado.
Después de varias instancias de ver al animal sin ningún ruido presente, es probable
que el miedo del niño comience a disiparse lentamente y eventualmente podría haber
dejado de mostrar la respuesta al miedo.

Por qué la recuperación espontánea es importante

Pero si una respuesta condicionada se extingue, ¿realmente desaparece por completo?


Si Watson y Rayner le hubieran dado al chico un breve período de descanso antes de
reintroducir la rata, Little Albert podría haber exhibido una recuperación espontánea
de la respuesta al miedo.

¿Por qué la recuperación espontánea es tan importante? Este fenómeno demuestra


que la extinción no es lo mismo que desaprender. Si bien la respuesta puede
desaparecer, eso no significa que haya sido olvidada o eliminada.

Generalización y Discriminación de estímulos.

generalización del estímulo. La medida en que estas nuevas claves producen


respuestas depende en gran parte de su parecido con el EC o Ed original.

Cuanto más semejantes son las claves, mayor es la reacción condicionada en la prueba
de generalización.

Por lo general, la semejanza del estímulo se basa en una característica de tipo físico.
Sin embargo, la generalización puede producirse por otras dimensiones del estímulo.
La generalización implica responder del mismo modo a dos estímulos distintos debido
a sus similitudes. La discriminación es el proceso contrario. Desde un punto de vista
formal, un animal discrimina cuando responde al E+ y no al E-.

Aunque discriminación y generalización son procesos complementarios se tratan por


separado. Además, no se establece ninguna distinción entre los estímulos
condicionados y los estímulos discriminativos. Los sujetos responden del mismo modo
(generalizan) o de forma distinta (discriminan) ante dos o más estímulo, con
independencia de si su respuesta es producida por un EC pelviano o facilitada por un
Ed instrumental.

Un modo de concebir la generalización y la discriminación es en términos del control


por el estímulo. Se dice que la respuesta producida por un EC, o que tiene lugar en
presencia de un Ed, está controlada por uno o más atributos de la clave. Es decir, el
control por el estímulo hace referencia simplemente al hecho de que algunas
dimensiones de un estímulo son relevantes, mientras que otras no. Una prueba de
generalización revela hasta qué punto una dimensión, pero no otra da lugar a la
conducta.

1. GRADIENTES DE GENERALIZACIÓN: Un aspecto notable de la generalización es la


relación sistemática entre la fuerza de la respuesta a los estímulos generalizados y
la similitud de esos estímulos con el EC o el Ed original.

Esta relación sistemática se denomina gradiente de generalización.

Medidas de generalización:

Se utilizan varios métodos para demostrar los gradientes de generalización. Cada


uno posee ciertas ventajas y desventajas.

Estímulos múltiples: La técnica de los estímulos múltiples consiste en condicionar


un E+ criterio y, después, durante una sesión de extinción, presentar el estímulo
original junto a otros muchos semejantes y observar la reacción del sujeto a cada
uno de ellos. La ventaja consiste en que cada sujeto experimenta todos los
estímulos generalizados. El inconveniente es que responder a un estímulo puede
afectar a la reacción del sujeto ante otros estímulos del continuo

Estímulo único:
La técnica del estímulo único consiste en entrenar a los sujetos con el estímulo
original y, después, ponerlos a prueba con solo una clave generalizada. La
capacidad de cada estímulo generalizado para producir respuestas se evalúa
mediante comparaciones de grupo. Esta aproximación puede requerir más tiempo
y ser costosa, y la ventaja es que la reacción del sujeto a un estímulo generalizado
no se ve afectada por la exposición a otros estímulos.

Tipos de gradientes de generalización. La generalización se produce con estímulos


tanto excitatorios como inhibitorios.

Estímulos excitatorios: Los gradientes de generalización de los estímulos


discriminativos excitatorios e demostraron en un clásico experimento con palomas
realizado por Guttman y Kalish.
Estímulos inhibitorios: Se ha demostrado también gradientes en el caso de la
inhibición generalizada. Una técnica (la sumación) consiste en entrenar tanto un E+
como un E-, y presentar después el E+ junto a claves similares al E-. Los estímulos E-
generalizados restan poder excitatorio al E+; cuanto más se asemeja un estímulo al E-
original, más se reduce la excitación producida por el E+. Un estudio de Weisman y
Palmer proporciona un buen ejemplo de inhibición condicionada generalizada.

Investigar sobre los aportes de B.F. Skinner y Edward L. Thorndike y al Aprendizaje.

El conductismo radical de Skinner

5. Las propuestas de Thorndike fueron el antecedente de lo que conocemos como


condicionamiento operante, pero este paradigma no se desarrolló de forma
completa hasta la aparición de las obras de Burrhus Frederic Skinner (1904-1990).
6. Skinner introdujo los conceptos de refuerzo positivo y negativo. Se denomina
refuerzo positivo al hecho de premiar una conducta dando algo, mientras que el
refuerzo negativo consiste en la retirada o la evitación de un evento desagradable.
En ambos casos, la intención es la de aumentar la frecuencia e intensidad de
aparición de una conducta determinada.
7. Skinner defendía el conductismo radical, que mantiene que todo el
comportamiento es resultado de asociaciones aprendidas entre estímulos y
respuestas. El enfoque teórico y metodológico desarrollado por Skinner se conoce
como análisis experimental de la conducta y ha sido especialmente eficaz en la
educación de niños con discapacidad intelectual y del desarrollo.

Edward Lee Thorndike, Williamsburg, 31 de agosto de 1874-Montrose, 9 de


agosto de 1949) fue un psicólogo y pedagogo estadounidense, considerado un
antecesor de la psicología conductista estadounidense. Sus principales aportaciones
fueron el aprendizaje por ensayo/error y la ley del efecto. Sus estudios sobre la
conducta animal le permitieron desarrollar la teoría del conexionismo.

Contribuciones
Su contribución más importante es la formulación de la llamada ley del efecto, a partir
de los estudios que realizó con gatos en cajas-problema de las que debían escapar.
La ley del efecto explicará la teoría de Skinner del condicionamiento operante.

6. Investigue y conceptualice lo que es el Condicionamiento Operante y describa


la diferencia entre el Condicionamiento Clásico y el Condicionamiento
Operante.

7. Diferencia entre condicionamiento clásico y operante

8. La diferencia principal entre el condicionamiento clásico y el operante es que el


primero se refiere al aprendizaje de información sobre un estímulo, mientras
que el segundo implica un aprendizaje sobre las consecuencias de la
respuesta.
9. Skinner opinaba que la conducta era mucho más fácil de modificar si se
manipulaban sus consecuencias que si simplemente se asociaban estímulos a
ésta, como sucede en el condicionamiento clásico. El condicionamiento clásico
se basa en la adquisición de respuestas reflejas, con lo cual explica una menor
cantidad de aprendizajes y sus usos son más limitados que los del operante, ya
que éste hace referencia a conductas que el sujeto puede controlar a voluntad.
10. Explique en qué consiste la Ley del efecto de Thorndike.

11. Edward Lee Thorndike (1874-1949), contemporáneo de Pávlov, realizó diversos


experimentos con animales para estudiar el aprendizaje. Introdujo gatos en
“cajas-problema” para observar si conseguían escapar de ellas y de qué modo.
12. En las cajas había varios elementos con los que los gatos podían interactuar,
como un botón o una anilla, y sólo el contacto con uno de estos objetos podía
hacer que se abriera la puerta de la caja. Al principio los gatos conseguían
salían de la caja por ensayo y error, pero a medida que se repetían los intentos
cada vez escapaban con más facilidad.
13. A partir de estos resultados Thorndike formuló la ley del efecto, que afirma
que si una conducta tiene un resultado satisfactorio es más probable que se
repita, y que si el resultado es insatisfactorio esta probabilidad disminuye.
Posteriormente formularía la ley del ejercicio, según la cual los aprendizajes y
hábitos que se repiten se ven reforzados y los que no se repiten se debilitan

. Los estudios y las obras de Thorndike introdujeron el condicionamiento


instrumental. Según este modelo el aprendizaje es consecuencia del reforzamiento o
el debilitamiento de la asociación entre una conducta y sus consecuencias. Esto sirvió
como base para formular propuestas más tarde, en el surgimiento del verdadero
conductismo, tal y como veremos.

7. Explicaremos ahora el fundamento del condicionamiento operante haciendo


una conceptualización de los siguientes temas: Reforzamiento del
comportamiento no deseado:

Reforzador:

En psicología (en particular, en conductismo), se llama reforzamiento al procedimiento


mediante el cual la aplicación de un estímulo (llamado reforzador) hace que aumente
la probabilidad de que una conducta se repita en el futuro. El reforzador, al igual que
los estímulos aversivos, se define en función de su efecto sobre la conducta, no por sus
características inherentes. Es decir, aunque un estímulo pueda ser considerado en
general como reforzador no lo será en los casos en que no haga más probable una
conducta. Por ejemplo, la comida suele ser considerada como reforzador, pero para
una persona que padece anorexia se considera un estímulo aversivo.
La definición de reforzador se ha considerado a veces como circular: el reforzador es lo
que refuerza la conducta; si la conducta es reforzada por un estímulo es que este
resulta reforzador. Paul E. Meehl propuso, en la década de 1950, el concepto
de transituacionalidad para resolver este problema.

Reforzamiento positivo

Los reforzadores positivos no son sinónimo de recompensa o premio. La diferencia es


que en el reforzamiento la conducta que lo precede se incrementa, mientas que en el
premio no se hace más probable que se repita nuevamente la conducta. Sólo se puede
hablar de reforzador si se incrementa la conducta (sólo se puede comprobar de modo
empírico). En ocasiones, un estímulo agradable puede ser un reforzador o un castigo
en función de la persona que lo suministre.

Tipos de reforzadores positivos

Se agrupan en distintas categorías en función de su origen, naturaleza, tangibles e


intangibles, contexto de aplicación, valencia apetitiva o aversiva, etc.

Reforzadores primarios o incondicionados.  Su valor reforzante suele estar asociado a


necesidades básicas del ser humano (comida, bebida). El valor reforzante varía según
las necesidades del individuo.

Reforzadores secundarios o condicionados. No están asociados a necesidades básicas


primarias y sufren un proceso de condicionamiento (inicialmente neutros). A los
reforzadores condicionados que están asociados con varios reforzadores se les
denomina reforzadores condicionados generalizados (dinero y elogio como ejemplo,
están asociados a comida, sonrisa, etc..).

Reforzadores tangibles. Objetos materiales que pueden ser tanto reforzadores


primarios como secundarios (comida, juguetes, ropa,).

Reforzadores sociales. Son las muestras de atención, valoración, aprobación,


reconocimiento, etc.… que recibe una persona por parte de otras como consecuencias
de la realización de una conducta (de los más poderosos). Cuatro ventajas de la
aplicación del refuerzo social: 1) son fáciles de administrar, 2) no tienen coste
económico, 3) administración inmediata, 4) son refuerzos naturales.

Actividades reforzantes. Cualquiera de las actividades placenteras que realiza una


persona puede utilizarse como reforzador para incrementar la ocurrencia de una
conducta (ir al cine). Se da el caso en el que actividades no especialmente gratificantes,
pero que se llevan a cabo habitualmente o con frecuencia, pueden utilizarse como
reforzadores de conductas que tienen una probabilidad menor y se desea incrementar
(Principio de Premack).

Reforzamiento negativo
El reforzamiento negativo hace referencia al aumento de la probabilidad de que se
repita una conducta al retirar un estímulo aversivo después de que se ha realizado la
conducta. El reforzador negativo se define también por su capacidad de incrementar la
conducta a la que es contingente.

Programas de reforzamiento

Dos tipos:

Reforzamiento continuo implica presentar un reforzador siempre que se realice la


conducta objetivo. Útil para respuestas débiles o para instaurar una nueva conducta. 

Reforzamiento intermitente supone administrar el reforzador de manera contingente a


la conducta, pero no en todas las ocasiones. Dos tipos; programas de razón, y
programas de intervalo.

Programas de razón. En los programas de razón fija el reforzador se obtiene de forma


contingente a la realización de la conducta el número de veces previamente estipulado
(RF3, RF5, RF30,). En los programas de razón variable el número cambia de un
reforzador a otro (RV5 promedio de 5 veces).

Programas de intervalo. Reforzamiento cada cierto intervalo temporal (fijos y


variables).

Los programas de reforzamiento intermitente pueden combinarse entre si. Los


programas de reforzamiento de tasas altas se utilizan cuando se desea obtener un
número alto de respuestas en un intervalo corto de tiempo. Los programas de
reforzamiento de tasas bajas se utilizan cuando el objetivo es que se emita un número
pequeño de respuestas en un intervalo largo de tiempo. Combinar distintos programas
de reforzamiento es adecuado cuando incrementar determinadas conductas puede
implicar reducir otras.

Cuando el objetivo es desarrollar inicialmente una respuesta, es preferible utilizar


reforzamiento continuo. Una vez ha llegado a los niveles deseados y se quieren
mantener, son más apropiados los reforzamientos intermitentes. En la fase de retirada
de reforzadores, los programas de reforzamiento intermitente son más resistentes a la
extinción que los continuos.

Castigo

La mera introducción de un estímulo aversivo o la simple retirada del estímulo positivo


no se considera castigo a no ser que lleve aparejado la reducción efectiva de la
conducta.  Definir castigo en lugar de simple penalización (al igual que premio vs.
reforzamiento) es una cuestión empírica. Es castigo sólo si se reduce la conducta.

Castigo positivo
El castigo positivo es la reducción de la frecuencia futura de una conducta cuando tras
su emisión se presenta un estímulo aversivo. Dos tipos de estímulos negativos: a)
estímulos aversivos primarios o incondicionales (carácter universal, como el dolor), y b)
estímulos aversivos secundarios o condicionados (gestos, insultos).

El efecto que tiene de un estímulo aversivo en la reducción de la conducta es más


importante que el grado de aversión que pueda atribuirse.

Castigo negativo

Dos tipos de castigo basado en la retirada de estímulos: tiempo-fuera de reforzamiento


y coste de respuestas.

Tiempo fuera de reforzamiento positivo

Consiste en negar el acceso temporal a los reforzadores inmediatamente después de


que se realice la conducta inadecuada que se desea reducir o eliminar (se usa con
niños). Para que sea efectivo tiene que cumplir las siguientes condiciones: 1) la
persona ha de ser consciente de las razones y duración del castigo, 2) la duración del
tiempo-fuera ha de ser breve (5 minutos en niños pequeños, >5 años con 1 minuto por
año añadido), 3)  no debe estar presente ni introducirse ningún reforzador durante el
tiempo-fuera de reforzamiento positivo, 4) no debe terminar antes de tiempo, 5) sólo
debe terminar si el niño se comporta adecuadamente, de lo contrario se estaría
reforzando negativamente, 5) el tiempo fuera no debe servir al niño para escapar de
una situación desagradable o incómoda (reforzamiento negativo). Inconveniente: aleja
a la persona del medio o contexto impidiendo el refuerzo positivo de conductas
alternativas. 

Coste de respuesta

El coste de respuesta se refiere a la pérdida de un reforzador positivo del que dispone el


individuo (retirada de puntos del carné). Resulta más efectivo si se entregan
reforzadores positivos al incrementarse la conduce actores que influyen en la
efectividad del castigo

El castigo, cuando se combina con procedimientos de reforzamiento y de extinción,


tiene efectos inmediatos sobre la conducta que se desea eliminar y sustancialmente
superiores a los efectos producidos por el uso exclusivo de programas de
reforzamiento. Pocos estudios han encontrado efectos negativos debido al
procedimiento de castigo.

El castigo positivo es útil cuando otras técnicas fallan, o es difícil identificar los
reforzadores. Es útil para conductas agresivas hacia sí mismo, o hacia los otros. 
Algunas guías para aplicar el castigo: 1) debe ocurrir inmediatamente después de la
conducta inadecuada,

2) debe ser administrado cada vez que ocurra la conducta inadecuada,


3) la persona a la que se le aplica debe ser consciente de la contingencia,

4) el reforzamiento no debe administrarse muy a continuación del castigo,

5) el castigo ha de ir precedido por un aviso de advertencia.

Algunos de los factores que contribuyen a la eficacia del castigo son:

 No demora del castigo.


 Programa de aplicación. Aplicado de forma continua.
 Regulación temporal del castigo en la secuencia de respuesta. Más eficiente si
se castigan conductas preliminares a la conducta final (en el caso de eslabones
de conductas).
 Fuente de reforzamiento. El efecto del castigo puede verse contrarrestado por
el potencial reforzamiento que pueda estar recibiendo la conducta que se
desea eliminar.
 Variaciones del castigo. Variar el tipo de castigo (tiempo-fuera, coste de
respuesta, reprimenda) utilizado favorece la reducción de la conducta a
eliminar.
 Reforzamiento de respuestas alternativas. La utilización de reforzamiento
positivo mejora la efectividad y reduce efectos colaterales.

Efectos colaterales del castigo

A pesar de la efectividad demostrada por el castigo, no se suele utilizar por razones


éticas y por los efectos colaterales. Algunos de los efectos negativos son:

 Reacciones emocionales adversas. Llanto, rabia, miedo, cuyos efectos pueden


dificultas el aprendizaje de conductas alternativas. Efectos perjudiciales incluso
para el que las administra (afectivos).
 Evitación y escape. Puede conducir a conductas de escape y evitación de la
situación o persona que administra el castigo.
 Agresión. Reacción con agresividad como defensa ante el castigo.
 Castigo modelado (efecto más importante). Puede aprenderse el castigo (por
modelado) como procedimiento eficaz para modificar conductas de otros.
 Perpetuación del castigo. Puede convertirse en herramienta habitual por el
reforzamiento negativo que supone para la persona que lo dispensa.

ventajas y desventajas del castigo, porque el reforzamiento supera al castigo:

Con frecuencia el castigo supone el camino más rápido para modificar una
conducta que, si se deja que continue, resultase peligrosa para un individuo.
En algunos casos el castigo es el método mas humanitario para tratar a ciertos
trastornos graves, Autismo trastorno psicológico que hacen desgarrase la piel o
golpear la cabeza se coloca el castigo a manera de una descarga eléctrica rápida
y serva para impedir el comportamiento del lesionarse.
Reforzar un comportamiento desabre es una técnica mas apropiada para
modificar la conducta que el castigo.

8. Por último no corresponde explicar los diferentes programas de


reforzamiento:
9. a) programa de reforzamiento continuo.
10.  En el reforzamiento continuo cada una de las respuestas da lugar a la
aparición de un reforzador, como en el caso de una paloma que recibe comida
cada vez que picotea una tecla. Este tipo de reforzamiento parece ser el modo
más eficaz para condicionar inicialmente la conducta. Sin embargo, cuando el
refuerzo cesa (por ejemplo, cuando desconectamos la entrega de alimento) la
extinción también es rápida.

Por su parte, en el reforzamiento intermitente las respuestas solo se refuerzan


algunas veces, como en el caso de una persona que juega a las máquinas y
recibe el refuerzo o premio cada varias jugadas. Este tipo de programa produce
un patrón más persistente de respuestas que un programa continuo cuando el
reforzamiento se vuelve impredecible o cesa. Una combinación de
reforzamiento intermitente y de refuerzo continuo es muy eficaz cuando se
trata de enseñar a los sujetos mediante condicionamiento operante: al
principio se utiliza un reforzamiento continuo, para que se adquiera la
respuesta, y luego se pasa a un reforzamiento intermitente, para que sea más
difícil que se extinga.

El reforzamiento intermitente da lugar a los programas de reforzamiento, que


pueden ser de dos tipos: de razón (en función del número de respuestas) y de
intervalo (en función del tiempo). A su vez, cada uno de ellos admite dos tipos
de administración: fija o variable.

11. parcial:

El efecto de reforzamiento parcial (ERP) se observa cuando una señal reforzada


parcialmente muestra una mayor resistencia a la extinción que una clave reforzada
continuamente. En dos experimentos se estudió el efecto del modo de respuesta en el
ERP, empleando una tarea de aprendizaje predictivo.

Participantes humanos fueron entrenados en un modo de respuesta ensayo por


ensayo, por fase o global en una tarea en la que tenían que predecir la ocurrencia de
una consecuencia (aparición de un conejo) después de diferentes claves (palabras
mágicas). Durante una fase de adquisición, una señal EC25 fue apareada con la
consecuencia en no 25 % de los ensayos (reforzamiento parcial), mientras que las
claves EC100 y ECcont se reforzaron en todos los ensayos (reforzamiento continuo).

Durante una fase de extinción, las señales EC25 y EC100 se extinguieron, pero no la
clave ECcont. Se solicitaron juicios predictivos para cada señal en el grupo global, no
final del entrenamiento, en el grupo por fase al final de cada fase y en el grupo por
ensayos, cada tres ensayos. Los resultados mostraron el ERP para la clave EC25 en
todos los grupos y no pueden ser explicados totalmente ni por los modelos asociativos
ni por los estadísticos.

12. programa de razón fija, variable. programa de intervalo fijo. de intervalo


variable.
13. Razón fija: El refuerzo se obtiene después de un número fijo de respuestas. Un
ejemplo se da cuando las fábricas pagan a sus obreros después de producir un
determinado número de productos. En realidad, el reforzamiento continuo es
un programa de este tipo de razón 1. Los individuos responden con una tasa
relativamente mayor de respuestas cuando operan bajo programas de razón
fija superior a 1 (dependerá del caso aplicar la razón más adecuada), pero por
lo general hacen una pausa para descansar después de recibir el reforzamiento,
antes de proseguir con la respuesta.

 Razón variable: En este caso, el número de respuestas para conseguir el


reforzador varía aleatoriamente, aunque siempre dentro de un promedio
determinado. Un ejemplo son las máquinas tragamonedas, que están
programadas para otorgar el premio conforme a un programa de razón
variable. Muchos reforzadores naturales, como el éxito o el
reconocimiento, se acercan mucho a este tipo de programas. Los
programas de razón variable producen una tasa de respuesta global
elevada sostenida, y los individuos no hacen pausa después del refuerzo.
Aparentemente, la incertidumbre de no saber cuándo va a llegar el
siguiente reforzador mantiene a los organismos produciendo la respuesta
constantemente.

 Intervalo fijo: El refuerzo aparece cada vez que trascurre una determinada
cantidad de tiempo, siempre que durante el intervalo se haya dado la
respuesta. Un ejemplo sería el de un padre que verifica cada media hora
que su hijo está estudiando, y cuando es así le hace un halago. Los
programas de intervalo fijo producen una tasa de respuestas desigual. Una
vez que se administra el refuerzo, la tasa de respuestas tiende a ser baja.
Durante el intervalo, la conducta aumenta típicamente hasta alcanzar un
nivel elevado inmediatamente antes del siguiente reforzador programado.
La cantidad global de respuestas en un programa de intervalos fijos es
moderada.
 Intervalo variable: El refuerzo está disponible después de un tiempo que varía
aleatoriamente, pero alrededor de un promedio. Un ejemplo es el de un
profesor que realiza exámenes sorpresa aproximadamente cada semana. Este
tipo de programa por lo general produce una tasa de respuesta constante, pero
moderada.
Por lo general, los programas de tasa (razón) producen una adquisición más rápida,
pero fácilmente extinguible una vez suspendida la administración de reforzadores; y
los de intervalo producen una adquisición más estable y resistente a la extinción. En la
vida real, estos programas básicos a menudo se combinan.
      

También podría gustarte